WO2011064876A1 - 予測モデル生成装置 - Google Patents

予測モデル生成装置 Download PDF

Info

Publication number
WO2011064876A1
WO2011064876A1 PCT/JP2009/070013 JP2009070013W WO2011064876A1 WO 2011064876 A1 WO2011064876 A1 WO 2011064876A1 JP 2009070013 W JP2009070013 W JP 2009070013W WO 2011064876 A1 WO2011064876 A1 WO 2011064876A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction model
learning data
variable
value
explanatory
Prior art date
Application number
PCT/JP2009/070013
Other languages
English (en)
French (fr)
Inventor
茂明 櫻井
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to PCT/JP2009/070013 priority Critical patent/WO2011064876A1/ja
Publication of WO2011064876A1 publication Critical patent/WO2011064876A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Definitions

  • the present invention relates to a prediction model generation device.
  • Patent Document 1 a technique for modeling the relationship between explanatory variables and explained variables is known.
  • a cluster for evaluation is provisionally classified using a combination of explanatory variables selected by the user, and a value of the explained variable representing the provisionally classified evaluation cluster is obtained.
  • a technique for determining continuation / stop of the system is disclosed. According to the technique disclosed in Patent Document 1, it is possible to determine an optimal cluster classification that explains the relationship between explanatory variables and explained variables.
  • Non-Patent Document 1 describes regression analysis, and by using this regression analysis, the relationship between fixed explanatory variables and time-series explanatory variables and explained variables is explained. A prediction model can be generated.
  • Patent Document 1 targets only fixed explanatory variables, and generates a prediction model from a set of learning data including fixed explanatory variables and time-series explanatory variables. I could't.
  • the regression analysis disclosed in Non-Patent Document 1 it is necessary to handle all fixed explanatory variables and time-series explanatory variables included in the learning data in a lump. It is difficult to construct a highly accurate prediction model because a plurality of features to be processed are collectively processed.
  • An object of the present invention is to provide a prediction model generation apparatus capable of generating a prediction model to be described.
  • a prediction model generation device stores learning data that is a set of a set in which a plurality of types of fixed first explanation variables, time-series second explanation variables, and explained variables are associated with each other.
  • a learning data storage unit that learns the learning data
  • a generation unit that generates a prediction model that explains the relationship between the plurality of types of the first explanatory variable and the second explanatory variable and the explained variable Evaluating the validity of the prediction model, registering the prediction model evaluated as valid in the prediction model storage unit, and when the prediction model is evaluated as invalid, the first explanatory variable
  • a selection unit that calculates each first evaluation value and selects the selected explanatory variable having the largest first evaluation value among the first explanatory variables, and a set of sets having the selected explanatory variable having the same value
  • Divide the training data into minutes A division unit that registers each of the learned data as new learning data in the learning data storage unit, and the generation unit learns the new learning data for each of the new learning data and performs the prediction It is characterized by
  • generation apparatus of this embodiment The figure which shows learning data.
  • FIG. 5 is a diagram illustrating learning data in which the size value is M when the learning data illustrated in FIG. 4 is divided by a “size” value.
  • FIG. 7 is a diagram illustrating learning data in which the color value is blue when the learning data illustrated in FIG. 6 is divided by a “color” value.
  • FIG. 7 is a diagram illustrating learning data in which the color value is yellow when the learning data illustrated in FIG. 6 is divided by a “color” value.
  • the flowchart which shows the process of this embodiment. The figure which shows the prediction model produced
  • a prediction model is created using RFID data collected by reading an RFID (Radio Frequency Identification) tag attached to each product sold in an apparel shop with an RFID reader as learning data.
  • RFID Radio Frequency Identification
  • FIG. 1 is a block diagram showing an example of the configuration of the prediction model generation device 100 of the present embodiment.
  • the prediction model generation device 100 includes a learning data storage unit 110, a generation unit 120, an evaluation unit 122, a prediction model storage unit 112, a selection unit 124, and a division unit 126. .
  • the learning data storage unit 110 stores learning data that is a set of sets in which a plurality of types of fixed first explanation variables, time-series second explanation variables, and explained variables are associated with each other.
  • RFID data collected from an apparel shop is stored in the learning data storage unit 110 as learning data.
  • the learning data storage unit 110 can be realized by an existing storage device that can be stored magnetically, optically, or electrically, such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, or an optical disk.
  • the first explanatory variable is a fixed explanatory variable whose value does not change even if the time series changes.
  • As the first explanatory variable of this embodiment for example, color (red, blue,%), Size (S, M,%), Line (bottom, tops,%), Region (Kanto, Tohoku,%), Store Business category (store in shopping mall, independent store,%), Material (silk, nylon,%), Shape (round neck, V shape,%), Or target season (summer, all season,).
  • the second explanatory variable is a time-series explanatory variable whose value changes with time-series change.
  • the second explanatory variable of the present embodiment for example, the number of pickups (non-negative integer value), the number of fittings (non-negative integer value), the number of sales (non-negative integer value), the temperature (non-negative integer value), the humidity ( Non-negative integer), rainfall (non-negative integer), store visits (non-negative integer), store inventory (non-negative integer), warehouse inventory (non-negative integer), or store clerk (non-negative integer) Numerical value).
  • the explained variables of the present embodiment include, for example, the next sales quantity (non-negative integer value), the next store inventory quantity (non-negative integer value), the next warehouse inventory quantity (non-negative integer value), and the next sales staff number (non-negative). Integer value).
  • FIG. 2 is a diagram illustrating an example of learning data stored in the learning data storage unit 110.
  • the learning data includes a plurality of types of first explanatory variables (color, size, and line), a plurality of types of second explanatory variables (the number of pickups, the number of fittings, and the number of sales), It is a set of sets in which variables (next sales numbers) are associated.
  • the value that can be taken by the “color” of the first explanatory variable is “red”, “blue”, or “yellow”
  • the value that can be taken by the “size” of the first explanatory variable is “S”, “M” or “F”
  • the value that can be taken by the “line” of the first explanatory variable is “tops”, “bottom”, or “miscellaneous goods”.
  • t1 to t9 associated with each set indicate the number of each set.
  • the generation unit 120 learns learning data, and generates a prediction model that explains the relationship between a plurality of types of first explanation variables, second explanation variables, and explained variables.
  • the generation unit 120 sets a variable for each set of first explanatory variable and second explanatory variable included in the learning data.
  • the generation unit 120 sets the first explanatory variable to 1 for each possible value of the first explanatory variable (excluding the last value), and 0 otherwise.
  • Set a variable for the second explanation variable, the generation unit 120 sets the value of the second explanation variable as the variable as it is.
  • the generation unit 120 sets a first regression equation that can explain the relationship between the plurality of types of the first explanatory variable and the second explanatory variable and the explained variable, and sets the first regression equation included in the learning data. Parameters associated with the first regression equation are determined so that the residual when the variables set as the explanatory variable and the second explanatory variable are applied to the first regression equation is minimized. Thereby, the 1st regression formula after parameter determination is generated as a prediction model.
  • x 1 is a variable that identifies the value of a first independent variables "color” is whether a “red”, x 2, the value of "color” is "blue”
  • X 3 is a variable that identifies whether the value of “size”, which is the first explanatory variable, is “S”, and
  • x 4 is a variable that determines whether the value of “size” is “S”.
  • x 5 is the variable that identifies the value of the "line” that is the first independent variables is whether "tops”
  • x 6 is It is a variable that identifies whether or not the value of “line” is “bottom”.
  • X 7 is a variable indicating the value of the “number of pickups” that is the second explanatory variable
  • x 8 is a variable indicating the value of the “number of fittings” that is the second explanatory variable
  • x 9 is This is a variable indicating the value of “number of sales”, which is the second explanatory variable.
  • y is a variable indicating the value of “next sales number”, which is an explained variable.
  • Equation (1) since the value of x 1 and x 2 are determined, the value of "color” is automatically determined also whether “yellow”, the value of the "color” The variable that identifies whether or not is “yellow” is not incorporated into the regression equation. For the same reason, a variable that identifies whether the value of “size” is “F” and a variable that identifies whether the value of “line” is “miscellaneous” are also incorporated in the regression equation. Not.
  • the generation unit 120 calculates the multiple regression coefficients whose degrees of freedom have been adjusted by applying the variables set to the first explanatory variable and the second explanatory variable of each set included in the learning data to the first regression equation.
  • the evaluation unit 122 evaluates the validity of the prediction model, and registers the prediction model evaluated as valid in the prediction model storage unit 112.
  • the evaluation unit 122 evaluates that the prediction model is valid when the second evaluation value for evaluating the goodness of the first regression equation after parameter determination is equal to or greater than a predetermined first threshold value, If the second evaluation value is less than the threshold value, the prediction model is evaluated as invalid.
  • various values can be considered as the second evaluation value for evaluating the first regression equation.
  • the degree of freedom-adjusted multiple correlation coefficient described in Non-Patent Document 1 can be used.
  • the degree of freedom adjusted multiple correlation coefficient is calculated by the generation unit 120.
  • the evaluation part 122 registers the prediction model produced
  • the prediction model storage unit 112 stores the prediction model evaluated as valid by the evaluation unit 122, and can be realized by an existing storage device like the learning data storage unit 110.
  • the selection unit 124 calculates the first evaluation value of each of the first explanation variables, and the first explanation variable (selection explanation variable) that maximizes the calculated first evaluation value. Select.
  • the first evaluation value for example, a multiple correlation coefficient whose degrees of freedom have been adjusted when the second regression equation is obtained using only the first explanatory variable as the explanatory variable can be used.
  • the selection unit 124 determines that the first explanatory variable is “color” and its value is “red”. Is set to x 1 , the first explanatory variable is “color” and the variable whose value is “blue” is set to x 2 , and the relationship between the next sales number y that is the explained variable is described. Two regression equations are set. Further, the selection unit 124 sets the variable whose first explanatory variable is “size” and its value is “S” to x 1 , and the variable whose first explanatory variable is “size” and whose value is “M” is x 2.
  • a second regression equation is set to explain the relationship with the next sales number y that is the explained variable. Further, the selection unit 124 sets the variable whose first explanatory variable is “line” and its value is “tops” to x 1 , and the variable whose first explanatory variable is “line” and whose value is “bottom” is x 2. And a second regression equation is set to explain the relationship with the next sales number y that is the explained variable.
  • the selection unit 124 calculates the multiple correlation coefficient adjusted for the degree of freedom corresponding to each second regression equation as the first evaluation value by applying the learning data to each set second regression equation.
  • the first explanatory variable (second regression equation) that maximizes the first evaluation value is selected. For example, when the multiple correlation coefficients whose degrees of freedom of “color”, “size”, and “line” have been adjusted are 0.6, 0.7, and 0.8, respectively, the selection unit 124 selects the multiple phase relationship. “Line” is selected as the first explanatory variable that maximizes the number.
  • the dividing unit 126 divides the learning data into a set of sets having the same value of the first explanatory variable selected by the selecting unit 124, and registers each of the divided learning data in the learning data storage unit 110 as new learning data. To do.
  • the dividing unit 126 converts the learning data shown in FIG. 2 with the value of “line” being “tops”.
  • a set of sets see FIG. 3
  • a set of sets whose “line” value is “bottom” see FIG. 4
  • a set of sets whose “line” value is “miscellaneous” see FIG. 5
  • the dividing unit 126 registers each divided learning data in the learning data storage unit 110 as new learning data.
  • the dividing unit 126 converts the learning data shown in FIG. 4 into a set of sets whose “size” is “S” (see FIG. 6) and a set of sets whose “size” is “M”. (See FIG. 7). Then, the dividing unit 126 registers each divided learning data in the learning data storage unit 110 as new learning data.
  • a prediction model is generated from the learning data illustrated in FIG. 6 by the generation unit 120, the prediction model is evaluated as invalid by the evaluation unit 122, and “color” is selected as the first explanatory variable by the selection unit 124.
  • the dividing unit 126 uses the learning data shown in FIG. 6 as a set of sets whose “color” value is “blue” (see FIG. 8) and a set of sets whose “color” value is “yellow”. (See FIG. 9). Then, the dividing unit 126 registers each divided learning data in the learning data storage unit 110 as new learning data.
  • x 1 is a variable that identifies the value of a first independent variables "color” is whether a “red”
  • x 2 the value of "color” is "blue”
  • X 3 is a variable that identifies whether the value of “size”, which is the first explanatory variable, is “S”
  • x 4 is a variable that determines whether the value of “size” is “S”. It is a variable that identifies whether or not it is “M”.
  • x 5 is a variable indicating the value of a second independent variables "pick number”
  • x 6 is a variable indicating the value of "the number of try-on” a second independent variables
  • x 7 is This is a variable indicating the value of “number of sales”, which is the second explanatory variable.
  • y is a variable indicating the value of “next sales number” which is an explained variable.
  • the evaluation unit 122 evaluates that the prediction model generated from the learning data illustrated in FIG. 3 is valid, the first explanatory variable selected by the selection unit 124 when being divided into the learning data illustrated in FIG. 3. And “tops” which is the value of “line” in the learning data shown in FIG. 3 are registered in the prediction model storage unit 112 in association with the prediction model.
  • x 1 is a variable that identifies the value of a first independent variables "color” is whether a “red”
  • x 2 the value of "color” is "blue”
  • X 3 is a variable that identifies whether the value of “size”, which is the first explanatory variable, is “S”
  • x 4 is a variable that determines whether the value of “size” is “S”. It is a variable that identifies whether or not it is “M”.
  • x 5 is a variable indicating the value of a second independent variables "pick number”
  • x 6 is a variable indicating the value of "the number of try-on”
  • x 7 is This is a variable indicating the value of “number of sales”, which is the second explanatory variable
  • y is a variable indicating the value of “next sales number” which is an explained variable.
  • the evaluation unit 122 evaluates that the prediction model generated from the learning data illustrated in FIG. 5 is valid, the first explanatory variable selected by the selection unit 124 when being divided into the learning data illustrated in FIG. And “miscellaneous goods” which is the value of “line” in the learning data shown in FIG. 5 are registered in the prediction model storage unit 112 in association with the prediction model.
  • x 1 is a variable that identifies the value of a first independent variables "color” is whether a “red", x 2, the value of "color” is "blue”
  • X 3 is a variable indicating the value of the “number of pickups” that is the second explanatory variable
  • x 4 is a variable indicating the value of the “number of fittings” that is the second explanatory variable
  • x 5 is This is a variable indicating the value of “number of sales”, which is the second explanatory variable.
  • y is a variable indicating the value of “next sales number”, which is an explained variable.
  • the evaluation unit 122 evaluates that the prediction model generated from the learning data illustrated in FIG. 7 is valid, the first explanatory variable selected by the selection unit 124 before being divided into the learning data illustrated in FIG. “Line” and “size” and their values “bottom” and “M” are registered in the prediction model storage unit 112 in association with the prediction model.
  • x 1 is a variable indicating the value of a second independent variables "pick number”
  • x 2 is the variable indicating the value of a second independent variables "number of try-on”
  • x 3 is , A variable indicating the value of “number of sales”, which is the second explanatory variable.
  • y is a variable indicating the value of “next sales number” which is an explained variable.
  • the values of the first explanatory variables “line”, “size”, and “color” are only “bottom”, “S”, and “yellow”, respectively. “Line”, “Size”, and “Color” are not incorporated in the first regression equation.
  • the evaluation unit 122 evaluates that the prediction model generated from the learning data illustrated in FIG. 9 is valid, the first explanatory variable selected by the selection unit 124 before being divided into the learning data illustrated in FIG. 9. “Line”, “Size”, “Color” and their values “Bottom”, “S”, “Yellow” are registered in the prediction model storage unit 112 in association with the prediction model.
  • generation part 120 the evaluation part 122, the selection part 124, and the division
  • CPU Central Processing Unit
  • FIG. 10 is a flowchart illustrating an example of processing performed by the prediction model generation device 100 of the present embodiment.
  • step S100 the generation unit 120 reads the learning data stored in the learning data storage unit 110.
  • step S102 the generation unit 120 generates a node and assigns it to the read learning data.
  • step S103 the generation unit 120 stores the node assigned to the learning data in the stack.
  • step S104 the generation unit 120 extracts one node stored in the stack. However, if the node is not stored in the stack and the generation unit 120 cannot extract the node (No in step S104), the process ends. On the other hand, when the generation unit 120 extracts a node (Yes in step S104), the process proceeds to step S106.
  • step S ⁇ b> 106 the generation unit 120 learns learning data assigned to the extracted node, and generates a prediction model that explains the relationship between the plurality of types of first explanation variables and second explanation variables and explained variables. Generate.
  • step S108 the evaluation unit 122 evaluates the validity of the prediction model generated by the generation unit 120. If the evaluation unit 122 determines that the prediction model is valid (Yes in step S108), the evaluation unit 122 proceeds to step S110 and evaluates that the prediction model is not valid. If so (No in step S108), the process proceeds to step S112.
  • step S110 the evaluation unit 122 registers the prediction model evaluated as valid in the prediction model storage unit 112, and returns to step S104.
  • the prediction model evaluated as valid is a prediction model generated from the new learning data divided by the dividing unit 126
  • the evaluation unit 122 reaches the node assigned to the new learning data.
  • the first explanation variable selected by the selection unit 124 and its value are registered in the prediction model storage unit 112 in association with the prediction model.
  • step S112 when the evaluation unit 122 evaluates that the prediction model is not valid, the selection unit 124 calculates a first evaluation value of each first explanatory variable included in the learning data assigned to the extracted node.
  • the first explanatory variable (selected explanatory variable) having the largest first evaluation value is selected.
  • the process proceeds to step S124.
  • the selection unit 124 has selected the first explanatory variable (Yes in step S112), the process proceeds to step S114.
  • step S114 the dividing unit 126 divides the learning data assigned to the extracted node into a set of sets having the same value of the first explanatory variable selected by the selecting unit 124.
  • step S115 the dividing unit 126 registers each divided learning data in the learning data storage unit 110 as new learning data.
  • step S116 the generation unit 120 reads new learning data stored in the learning data storage unit 110. However, when new learning data is not stored in the learning data storage unit 110 and the generation unit 120 cannot read new learning data (No in step S116), the process returns to step S104. On the other hand, when the generation unit 120 can read new learning data (Yes in step S116), the process proceeds to step S117.
  • step S117 the generation unit 120 generates a node and assigns it to the read new learning data.
  • step S118 the generation unit 120 determines whether to store the node assigned to the read new learning data in the stack. Specifically, the generation unit 120 calculates a third evaluation value from the number of sets included in the read new learning data, and determines whether or not the third evaluation value is equal to or greater than a second threshold value specified in advance. judge. Then, when the third evaluation value is equal to or greater than the second threshold value, the generation unit 120 determines that the node is stored in the stack (Yes in Step S118), proceeds to Step S120, and the third evaluation value is the second threshold value. If it is less, it is determined that the node is not stored in the stack (No in step S118), and the process proceeds to step S122.
  • various values can be considered as the third evaluation value. For example, a value obtained by dividing the number of sets included in the new learning data by the number of sets included in the original learning data can be used. .
  • step S120 the generation unit 120 stores the node assigned to the read new learning data in the stack.
  • step S122 the evaluation unit 122 gives a flag indicating that a prediction model cannot be generated from the new learning data to the node assigned to the new learning data that has been read, and that there is no prediction model, and a prediction model storage unit 112, and the process returns to step S116.
  • step S ⁇ b> 124 the evaluation unit 122 gives a flag indicating that there is no prediction model to the node assigned to the learning data that is the generation source of the prediction model evaluated as not valid by the evaluation unit 122, and the prediction model storage unit 112. And return to step S104.
  • a prediction model is generated from the learning data shown in FIG. 2, this prediction model is evaluated as invalid, “Line” is selected as the first explanatory variable, and the learning data shown in FIG. 2.
  • Line is selected as the first explanatory variable, and the learning data shown in FIG. 2.
  • a prediction model is generated from the learning data shown in FIG. 4, this prediction model is evaluated as invalid, “size” is selected as the first explanatory variable, and the learning data shown in FIG. It is assumed that the data is divided into learning data shown in FIG.
  • the prediction model shown in FIG. 11 is generated in the prediction model storage unit 112.
  • each circle corresponds to a node, and the selected first explanatory variable is assigned to other than the terminal node.
  • a flag “no prediction model” indicating that the first regression equation corresponding to the combination of the values of the first explanatory variable or the first regression equation is not assigned is assigned to the terminal node.
  • a value that can be taken by the first explanatory variable in the upper node is assigned to the branch connecting the nodes. It is assumed that the first explanatory variable and its value appearing from the highest node to the terminal node represent the conditions corresponding to the regression equation and flag assigned to the terminal node.
  • the learning data is divided into a set of sets having the same value of the selected first explanatory variable
  • a prediction model is generated from each of the divided new learning data. Therefore, according to the present embodiment, the prediction that explains the relationship between the fixed first explanatory variable and the time-series second explanatory variable and the explained variable in consideration of a plurality of features inherent in the explanatory variable.
  • a model can be generated. In addition, it is possible to generate a more accurate prediction model than in the past.
  • the prediction model can be generated individually from the learning data whose “line” is “bottom” and the learning data whose “line” is “tops”, the characteristic of the “line” value A reasonable prediction model that captures the differences can be generated.
  • a prediction model for explaining the relationship between the fixed first explanatory variable and the time-series second explanatory variable and the explained variable can be generated, so that it can be handled as learning data compared to the conventional case.
  • the target can be expanded.
  • the prediction model generation device of the present embodiment includes a control device such as a CPU, a storage device such as a ROM and a RAM, an external storage device such as an HDD and a removable drive device, a display device such as a display, a keyboard and a mouse. Etc., and has a hardware configuration using a normal computer.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
  • the first regression equation is configured by a linear regression equation, but the first regression equation may be configured by using a nonlinear function such as an n-order equation, a log function, or an exponential function. it can.
  • the function of the prediction model generation device of the above embodiment may be realized by executing a prediction model generation program.
  • the prediction model generation program executed by the prediction model generation apparatus of the above embodiment is a file in an installable format or an executable format, and is a CD-ROM, CD-R, memory card, DVD (Digital Versatile Disk).
  • the program is stored in a computer-readable storage medium such as a flexible disk (FD) and provided as a computer program product.
  • a prediction model generation program executed by the prediction model generation apparatus of the above embodiment may be provided by being incorporated in advance in a ROM or the like.
  • the prediction model generation program executed by the prediction model generation device of the above embodiment has a module configuration for realizing the above-described units on a computer.
  • the CPU reads out the prediction model generation program from the ROM or the like onto the RAM and executes it, whereby the above-described units are realized on the computer.
  • the prediction model generation apparatus is suitable for generating a prediction model for explaining the relationship between the explanatory variable and the explained variable.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 学習データ記憶部110は、複数種類の固定的な第1説明変量と時系列的な第2説明変量と被説明変量とを対応付けた組の集合である学習データを記憶する。生成部120は、学習データを学習して、複数種類の第1説明変量及び第2説明変量と被説明変量との間の関係を説明する予測モデルを生成する。評価部122は、予測モデルの妥当性を評価し、妥当であると評価した予測モデルを予測モデル記憶部112に登録する。選択部124は、予測モデルが妥当でないと評価された場合に、第1説明変量それぞれの第1評価値を算出し、第1説明変量のうち最大の第1評価値を有する選択説明変量を選択する。分割部126は、同じ値の選択説明変量を有する組の集合に学習データを分割し、分割した学習データそれぞれを新たな学習データとして学習データ記憶部110に登録する。生成部120は、新たな学習データ毎に、当該新たな学習データを学習して予測モデルを生成する。

Description

予測モデル生成装置
 本発明は、予測モデル生成装置に関する。
 従来から、説明変量と被説明変量との間の関係をモデル化する技術が知られている。例えば特許文献1には、ユーザに選択された説明変量の組み合わせを用いて評価用のクラスターを仮分類し、仮分類された評価用のクラスターを代表する被説明変量の値を求めて、仮分類の継続・停止を判定する技術が開示されている。特許文献1に開示された技術によれば、説明変量と被説明変量との間の関係を説明する最適なクラスター分類を決定することができる。また、例えば非特許文献1には、回帰分析について記載されており、この回帰分析を利用することにより、固定的な説明変量及び時系列的な説明変量と被説明変量との間の関係を説明する予測モデルを生成することができる。
特開2000-132558号公報
竹内啓著 「数理統計学」 東洋経済新報社 1963年 p.305-326
 しかしながら、特許文献1に開示された技術では、固定的な説明変量のみを対象としており、固定的な説明変量と時系列的な説明変量とを含む学習データの集合から、予測モデルを生成することはできなかった。また、非特許文献1に開示された回帰分析を利用する場合、学習データに含まれる全ての固定的な説明変量及び時系列的な説明変量を一括して取り扱う必要があるため、説明変量に内在する複数の特徴を一括して処理することとなり、精度の高い予測モデルを構築することは困難であった。
 本発明は、上記事情に鑑みてなされたものであり、説明変量に内在する複数の特徴を考慮して、固定的な説明変量及び時系列的な説明変量と被説明変量との間の関係を説明する予測モデルを生成することができる予測モデル生成装置を提供することを目的とする。
 本発明の一態様にかかる予測モデル生成装置は、複数種類の固定的な第1説明変量と時系列的な第2説明変量と被説明変量とを対応付けた組の集合である学習データを記憶する学習データ記憶部と、前記学習データを学習して、複数種類の前記第1説明変量及び前記第2説明変量と前記被説明変量との間の関係を説明する予測モデルを生成する生成部と、前記予測モデルの妥当性を評価し、妥当であると評価した前記予測モデルを予測モデル記憶部に登録する評価部と、前記予測モデルが妥当でないと評価された場合に、前記第1説明変量それぞれの第1評価値を算出し、前記第1説明変量のうち最大の前記第1評価値を有する選択説明変量を選択する選択部と、同じ値の前記選択説明変量を有する組の集合に前記学習データを分割し、分割した前記学習データそれぞれを新たな学習データとして前記学習データ記憶部に登録する分割部と、を備え、前記生成部は、前記新たな学習データ毎に、当該新たな学習データを学習して前記予測モデルを生成することを特徴とする。
 本発明によれば、説明変量に内在する複数の特徴を考慮して、固定的な説明変量及び時系列的な説明変量と被説明変量との間の関係を説明する予測モデルを生成することができるという効果を奏する。
本実施形態の予測モデル生成装置を示す図。 学習データを示す図。 図2に示す学習データを「ライン」の値で分割した場合における、ラインの値がトップスとなる学習データを示す図。 図2に示す学習データを「ライン」の値で分割した場合における、ラインの値がボトムとなる学習データを示す図。 図2に示す学習データを「ライン」の値で分割した場合における、ラインの値が雑貨となる学習データを示す図。 図4に示す学習データを「サイズ」の値で分割した場合における、サイズの値がSとなる学習データを示す図。 図4に示す学習データを「サイズ」の値で分割した場合における、サイズの値がMとなる学習データを示す図。 図6に示す学習データを「色」の値で分割した場合における、色の値が青となる学習データを示す図。 図6に示す学習データを「色」の値で分割した場合における、色の値が黄となる学習データを示す図。 本実施形態の処理を示すフローチャート。 図2~9に示す学習データから生成される予測モデルを示す図。
 以下、添付図面を参照しながら、本発明の予測モデル生成装置の実施形態を説明する。なお、以下の実施形態では、アパレルショップの店内で販売されている各商品に付与されているRFID(Radio Frequency Identification)タグをRFIDリーダで読み込むことにより収集されるRFIDデータを学習データとして予測モデルを生成する例について説明するが、これに限定されるものではない。
 図1は、本実施形態の予測モデル生成装置100の構成の一例を示すブロック図である。図1に示すように、予測モデル生成装置100は、学習データ記憶部110と、生成部120と、評価部122と、予測モデル記憶部112と、選択部124と、分割部126と、を備える。
 学習データ記憶部110は、複数種類の固定的な第1説明変量と時系列的な第2説明変量と被説明変量とを対応付けた組の集合である学習データを記憶する。本実施形態では、アパレルショップから収集されるRFIDデータが学習データとして学習データ記憶部110に記憶されるものとする。学習データ記憶部110は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスクなどの磁気的、光学的、又は電気的に記憶可能な既存の記憶装置により実現できる。
 第1説明変量は、時系列が変化してもその値が変化しない固定的な説明変量である。本実施形態の第1説明変量としては、例えば、色(赤,青,…)、サイズ(S,M,…)、ライン(ボトム,トップス,…)、地域(関東,東北,…)、店舗業態(ショッピングモール内店舗,独立店舗,…)、素材(絹,ナイロン,…)、形状(丸首,V字,…)、又は対象季節(夏物,オールシーズン,…)などが挙げられる。
 第2説明変量は、時系列の変化に伴いその値が変化する時系列的な説明変量である。本実施形態の第2説明変量としては、例えば、ピックアップ数(非負の整数値)、試着数(非負の整数値)、販売数(非負の整数値)、温度(非負の整数値)、湿度(非負の整数値)、雨量(非負の整数値)、来店数(非負の整数値)、店頭在庫数(非負の整数値)、倉庫在庫数(非負の整数値)、又は店員数(非負の整数値)などが挙げられる。
 本実施形態の被説明変量としては、例えば、次期販売数(非負の整数値)、次期店頭在庫数(非負の整数値)、次期倉庫在庫数(非負の整数値)、次期店員数(非負の整数値)などが挙げられる。
 なお、各説明変量の後の括弧書きは、当該説明変量が取りうる値を示している。
 図2は、学習データ記憶部110に記憶されている学習データの一例を示す図である。図2に示す例では、学習データは、複数種類の第1説明変量(色、サイズ、及びライン)と、複数種類の第2説明変量(ピックアップ数、試着数、及び販売数)と、被説明変量(次期販売数)とを対応付けた組の集合となっている。ここでは、第1説明変量の「色」が取りうる値は、「赤」、「青」、又は「黄」であり、第1説明変量の「サイズ」が取りうる値は、「S」、「M」、又は「F」であり、第1説明変量の「ライン」が取りうる値は、「トップス」、「ボトム」、又は「雑貨」となっている。なお、各組に対応付けられているt1~t9は、各組の番号を示している。
 図1に戻り、生成部120は、学習データを学習して、複数種類の第1説明変量及び第2説明変量と被説明変量との間の関係を説明する予測モデルを生成する。
 具体的には、生成部120は、学習データに含まれる各組の第1説明変量及び第2説明変量に変量を設定する。生成部120は、第1説明変量については、当該第1説明変量が取りうる値(但し、最後の値は除く)毎に、その値である場合には1、その値でない場合には0となる変量を設定する。また、生成部120は、第2説明変量については、当該第2説明変量の値をそのまま変量に設定する。
 そして、生成部120は、複数種類の第1説明変量及び第2説明変量と被説明変量との間の関係を説明可能な第1回帰式を設定し、学習データに含まれる各組の第1説明変量及び第2説明変量に設定した変量を第1回帰式に適用した場合における残差が最小となるように、第1回帰式に付随するパラメータを決定する。これにより、パラメータ決定後の第1回帰式が予測モデルとして生成される。
 例えば、生成部120は、図2に示す学習データに対して回帰分析を利用することにより、説明変量x(i=1,2,…,9)と、被説明変量yとの間の関係を、数式(1)に示す第1回帰式によってモデル化する。
Figure JPOXMLDOC01-appb-M000001
 ここで、xは、第1説明変量である「色」の値が「赤」であるか否かを識別する変量であり、xは、「色」の値が「青」であるか否かを識別する変量であり、xは、第1説明変量である「サイズ」の値が「S」であるか否かを識別する変量であり、xは、「サイズ」の値が「M」であるか否かを識別する変量であり、xは、第1説明変量である「ライン」の値が「トップス」であるか否かを識別する変量であり、xは、「ライン」の値が「ボトム」であるか否かを識別する変量である。また、xは、第2説明変量である「ピックアップ数」の値を示す変量であり、xは、第2説明変量である「試着数」の値を示す変量であり、xは、第2説明変量である「販売数」の値を示す変量である。また、yは、被説明変量である「次期販売数」の値を示す変量である。そして、α及びβLi(i=1,2,…,9)が、説明変量x及び被説明変量yから決定されるパラメータである。
 なお、数式(1)に示す第1回帰式では、x及びxの値が決まると、「色」の値が「黄」であるか否かも自動的に決まるため、「色」の値が「黄」であるか否かを識別する変量は回帰式に組み込まれていない。同様の理由で、「サイズ」の値が「F」であるか否かを識別する変量、及び「ライン」の値が「雑貨」であるか否かを識別する変量も、回帰式に組み込まれていない。
 また、生成部120は、学習データに含まれる各組の第1説明変量及び第2説明変量に設定した変量を第1回帰式に適用することにより自由度調整済みの重回帰係数を算出する。
 評価部122は、予測モデルの妥当性を評価し、妥当であると評価した予測モデルを予測モデル記憶部112に登録する。
 具体的には、評価部122は、パラメータ決定後の第1回帰式の良さを評価する第2評価値が予め定められた第1閾値以上である場合に予測モデルが妥当であると評価し、第2評価値が閾値未満である場合に予測モデルが妥当でないと評価する。ここで、第1回帰式を評価する第2評価値としては多様なものが考えられるが、例えば、非特許文献1に記載されている自由度調整済の重相関係数を用いることができる。なお、自由度調整済の重相関係数は、生成部120により算出される。
 そして、評価部122は、第2評価値が第1閾値以上であると判定した場合、生成部120により生成された予測モデルを予測モデル記憶部112に登録する。具体的には、評価部122は、第1回帰式を構成する説明変量、及び第1回帰式を構成するパラメータを予測モデルとして予測モデル記憶部112に登録する。一方、評価部122は、第2評価値が第1閾値未満であると判定した場合、生成部120により生成された予測モデルの予測モデル記憶部112への登録は行わない。
 予測モデル記憶部112は、評価部122により妥当であると評価された予測モデルを記憶するものであり、学習データ記憶部110同様、既存の記憶装置により実現できる。
 選択部124は、予測モデルが妥当でないと評価された場合に、第1説明変量それぞれの第1評価値を算出し、算出した第1評価値が最大となる第1説明変量(選択説明変量)を選択する。第1評価値には、例えば、第1説明変量だけを説明変量として第2回帰式を求めた場合における自由度調整済の重相関係数を用いることができる。
 例えば図2に示すように、第1説明変量が、「色」、「サイズ」、及び「ライン」である場合、選択部124は、第1説明変量が「色」でその値が「赤」である変量をx、第1説明変量が「色」でその値が「青」である変量をxに設定し、被説明変量である次期販売数yとの間の関係を説明する第2回帰式を設定する。また、選択部124は、第1説明変量が「サイズ」でその値が「S」である変量をx、第1説明変量が「サイズ」でその値が「M」である変量をxに設定し、被説明変量である次期販売数yとの間の関係を説明する第2回帰式を設定する。また、選択部124は、第1説明変量が「ライン」でその値が「トップス」である変量をx、第1説明変量が「ライン」でその値が「ボトム」である変量をxに設定し、被説明変量である次期販売数yとの間の関係を説明する第2回帰式を設定する。
 そして、選択部124は、設定した各第2回帰式に学習データを適用することにより、各第2回帰式に対応する自由度調整済の重相関係数を第1評価値として算出し、算出した第1評価値が最大となる第1説明変量(第2回帰式)を選択する。例えば、「色」、「サイズ」、「ライン」の自由度調整済の重相関係数が、それぞれ、0.6、0.7、0.8である場合、選択部124は、重相関係数が最大となる第1説明変量として「ライン」を選択する。
 分割部126は、選択部124により選択された第1説明変量の値が同一である組の集合に学習データを分割し、分割した学習データそれぞれを新たな学習データとして学習データ記憶部110に登録する。
 例えば図2に示す学習データにおいて、選択部124により第1説明変量として「ライン」が選択された場合、分割部126は、図2に示す学習データを、「ライン」の値が「トップス」である組の集合(図3参照)、「ライン」の値が「ボトム」である組の集合(図4参照)、及び「ライン」の値が「雑貨」である組の集合(図5参照)に分割する。そして、分割部126は、分割した学習データそれぞれを新たな学習データとして学習データ記憶部110に登録する。
 また例えば、生成部120により図4に示す学習データから予測モデルが生成され、評価部122により予測モデルが妥当でないと評価され、選択部124により第1説明変量として「サイズ」が選択されたとする。この場合、分割部126は、図4に示す学習データを、「サイズ」の値が「S」である組の集合(図6参照)、「サイズ」の値が「M」である組の集合(図7参照)に分割する。そして、分割部126は、分割した学習データそれぞれを新たな学習データとして学習データ記憶部110に登録する。
 また例えば、生成部120により図6に示す学習データから予測モデルが生成され、評価部122により予測モデルが妥当でないと評価され、選択部124により第1説明変量として「色」が選択されたとする。この場合、分割部126は、図6に示す学習データを、「色」の値が「青」である組の集合(図8参照)、「色」の値が「黄」である組の集合(図9参照)に分割する。そして、分割部126は、分割した学習データそれぞれを新たな学習データとして学習データ記憶部110に登録する。
 ここで、分割部126により学習データ記憶部110に登録された新たな学習データに対する生成部120及び評価部122の処理について説明する。
 例えば、生成部120は、図3に示す学習データを学習して予測モデルを生成する場合、図3に示す学習データに対して回帰分析を利用することにより、説明変量x(i=1,2,…,7)と、被説明変量yとの間の関係を、数式(2)に示す第1回帰式によってモデル化する。
Figure JPOXMLDOC01-appb-M000002
 ここで、xは、第1説明変量である「色」の値が「赤」であるか否かを識別する変量であり、xは、「色」の値が「青」であるか否かを識別する変量であり、xは、第1説明変量である「サイズ」の値が「S」であるか否かを識別する変量であり、xは、「サイズ」の値が「M」であるか否かを識別する変量である。また、xは、第2説明変量である「ピックアップ数」の値を示す変量であり、xは、第2説明変量である「試着数」の値を示す変量であり、xは、第2説明変量である「販売数」の値を示す変量である。また、yは、被説明変量である「次期販売数」の値を示す変量である。そして、αLT及びβLTi(i=1,2,…,7)が、説明変量x及び被説明変量yから決定されるパラメータである。なお、図3に示す例では、第1説明変量である「ライン」の値は「トップス」のみとなっており、特定の第1説明変量の値が特定の値のみとなっているため、「ライン」は、第1回帰式に組み込まれていない。
 そして、評価部122は、図3に示す学習データから生成した予測モデルを妥当であると評価する場合、図3に示す学習データに分割される際に選択部124により選択された第1説明変量である「ライン」、及び図3に示す学習データにおける「ライン」の値である「トップス」を、予測モデルに対応付けて予測モデル記憶部112に登録する。
 また例えば、生成部120は、図5に示す学習データを学習して予測モデルを生成する場合、図5に示す学習データに対して回帰分析を利用することにより、説明変量x(i=1,2,…,7)と、被説明変量yとの間の関係を、数式(3)に示す第1回帰式によってモデル化する。
Figure JPOXMLDOC01-appb-M000003
 ここで、xは、第1説明変量である「色」の値が「赤」であるか否かを識別する変量であり、xは、「色」の値が「青」であるか否かを識別する変量であり、xは、第1説明変量である「サイズ」の値が「S」であるか否かを識別する変量であり、xは、「サイズ」の値が「M」であるか否かを識別する変量である。また、xは、第2説明変量である「ピックアップ数」の値を示す変量であり、xは、第2説明変量である「試着数」の値を示す変量であり、xは、第2説明変量である「販売数」の値を示す変量である。また、yは、被説明変量である「次期販売数」の値を示す変量である。そして、αLO及びβLOi(i=1,2,…,7)が、説明変量x及び被説明変量yから決定されるパラメータである。なお、図5に示す例では、第1説明変量である「ライン」の値は「雑貨」のみとなっているため、「ライン」は、第1回帰式に組み込まれていない。
 そして、評価部122は、図5に示す学習データから生成した予測モデルを妥当であると評価する場合、図5に示す学習データに分割される際に選択部124により選択された第1説明変量である「ライン」、及び図5に示す学習データにおける「ライン」の値である「雑貨」を、予測モデルに対応付けて予測モデル記憶部112に登録する。
 また例えば、生成部120は、図7に示す学習データを学習して予測モデルを生成する場合、図7に示す学習データに対して回帰分析を利用することにより、説明変量x(i=1,2,…,5)と、被説明変量yとの間の関係を、数式(4)に示す第1回帰式によってモデル化する。
Figure JPOXMLDOC01-appb-M000004
 ここで、xは、第1説明変量である「色」の値が「赤」であるか否かを識別する変量であり、xは、「色」の値が「青」であるか否かを識別する変量である。また、xは、第2説明変量である「ピックアップ数」の値を示す変量であり、xは、第2説明変量である「試着数」の値を示す変量であり、xは、第2説明変量である「販売数」の値を示す変量である。また、yは、被説明変量である「次期販売数」の値を示す変量である。そして、αSM及びβSMi(i=1,2,…,5)が、説明変量x及び被説明変量yから決定されるパラメータである。なお、図7に示す例では、第1説明変量である「ライン」、「サイズ」の値は、それぞれ「ボトム」、「M」のみとなっているため、「ライン」及び「サイズ」は、第1回帰式に組み込まれていない。
 そして、評価部122は、図7に示す学習データから生成した予測モデルを妥当であると評価する場合、図7に示す学習データに分割されるまでに選択部124により選択された第1説明変量である「ライン」、「サイズ」、及びその値である「ボトム」、「M」を予測モデルに対応付けて予測モデル記憶部112に登録する。
 また例えば、生成部120は、図9に示す学習データを学習して予測モデルを生成する場合、図9に示す学習データに対して回帰分析を利用することにより、説明変量x(i=1,2,3)と、被説明変量yとの間の関係を、数式(5)に示す第1回帰式によってモデル化する。
Figure JPOXMLDOC01-appb-M000005
 ここで、xは、第2説明変量である「ピックアップ数」の値を示す変量であり、xは、第2説明変量である「試着数」の値を示す変量であり、xは、第2説明変量である「販売数」の値を示す変量である。また、yは、被説明変量である「次期販売数」の値を示す変量である。そして、αCY及びβCYi(i=1,2,3)が、説明変量x及び被説明変量yから決定されるパラメータである。なお、図9に示す例では、第1説明変量である「ライン」、「サイズ」、「色」の値は、それぞれ「ボトム」、「S」、「黄」のみとなっているため、「ライン」、「サイズ」、及び「色」は、第1回帰式に組み込まれていない。
 そして、評価部122は、図9に示す学習データから生成した予測モデルを妥当であると評価する場合、図9に示す学習データに分割されるまでに選択部124により選択された第1説明変量である「ライン」、「サイズ」、「色」及びその値である「ボトム」、「S」、「黄」を予測モデルに対応付けて予測モデル記憶部112に登録する。
 なお、生成部120、評価部122、選択部124、及び分割部126については、例えば、CPU(Central Processing Unit)などの既存の制御装置により実現できる。
 図10は、本実施形態の予測モデル生成装置100で行われる処理の一例を示すフローチャートである。
 ステップS100では、生成部120は、学習データ記憶部110に記憶されている学習データの読み込みを行う。
 ステップS102では、生成部120は、ノードを生成して、読み込んだ学習データに割り当てる。
 ステップS103では、生成部120は、学習データに割り当てたノードをスタックに格納する。
 ステップS104では、生成部120は、スタックに格納されている1のノードを取り出す。但し、スタックにノードが格納されておらず、生成部120がノードを取り出せない場合には(ステップS104でNo)、処理は終了となる。一方、生成部120がノードを取り出した場合には(ステップS104でYes)、ステップS106に進む。
 ステップS106では、生成部120は、取り出したノードに割り当てられた学習データを学習して、複数種類の第1説明変量及び第2説明変量と被説明変量との間の関係を説明する予測モデルを生成する。
 ステップS108では、評価部122は、生成部120により生成された予測モデルの妥当性を評価し、妥当であると評価した場合には(ステップS108でYes)、ステップS110に進み、妥当でないと評価した場合には(ステップS108でNo)、ステップS112に進む。
 ステップS110では、評価部122は、妥当であると評価した予測モデルを予測モデル記憶部112に登録し、ステップS104に戻る。なお、評価部122は、妥当であると評価した予測モデルが分割部126により分割された新たな学習データから生成された予測モデルである場合には、新たな学習データに割り当てたノードに到達するまでに選択部124により選択された第1説明変量及びその値を当該予測モデルに対応付けて予測モデル記憶部112に登録する。
 ステップS112では、選択部124は、評価部122により予測モデルが妥当でないと評価された場合、取り出されたノードに割り当てられた学習データに含まれる第1説明変量それぞれの第1評価値を算出し、最大の第1評価値を有する第1説明変量(選択説明変量)を選択する。但し、学習データに選択するべき第1説明変量が存在せず、第1説明変量を選択できない場合には(ステップS112でNo)、ステップS124へ進む。一方、選択部124が第1説明変量を選択した場合には(ステップS112でYes)、ステップS114に進む。
 ステップS114では、分割部126は、取り出されたノードに割り当てられた学習データを、選択部124により選択された第1説明変量の値が同一である組の集合に分割する。
 ステップS115では、分割部126は、分割した学習データそれぞれを新たな学習データとして学習データ記憶部110に登録する。
 ステップS116では、生成部120は、学習データ記憶部110に記憶されている新たな学習データの読み込みを行う。但し、学習データ記憶部110に新たな学習データが記憶されておらず、生成部120が新たな学習データを読み込めない場合には(ステップS116でNo)、ステップS104に戻る。一方、生成部120が新たな学習データを読み込めた場合には(ステップS116でYes)、ステップS117に進む。
 ステップS117では、生成部120は、ノードを生成して、読み込んだ新たな学習データに割り当てる。
 ステップS118では、生成部120は、読み込んだ新たな学習データに割り当てたノードをスタックに格納するか否かを判定する。具体的には、生成部120は、読み込んだ新たな学習データに含まれる組の個数から第3評価値を算出し、第3評価値が予め指定された第2閾値以上となるか否かを判定する。そして、生成部120は、第3評価値が第2閾値以上となる場合にはノードをスタックに格納すると判定して(ステップS118でYes)、ステップS120に進み、第3評価値が第2閾値未満となる場合にはノードをスタックに格納しないと判定して(ステップS118でNo)、ステップS122に進む。ここで、第3評価値としては多様なものが考えられるが、例えば、新たな学習データに含まれる組の個数を、当初の学習データに含まれる組の個数で割った値を用いることができる。
 ステップS120では、生成部120は、読み込んだ新たな学習データに割り当てたノードをスタックに格納する。
 ステップS122では、評価部122は、読み込んだ新たな学習データに割り当てたノードに、当該新たな学習データから予測モデルが生成できず、予測モデルが無いことを示すフラグを付与し、予測モデル記憶部112に登録し、ステップS116に戻る。
 ステップS124では、評価部122は、評価部122により妥当でないと評価された予測モデルの生成元の学習データに割り当てたノードに、予測モデルが無いことを示すフラグを付与し、予測モデル記憶部112に登録し、ステップS104に戻る。
 そして、本実施形態では、まず、図2に示す学習データから予測モデルが生成され、この予測モデルが妥当でないと評価され、第1説明変量として「ライン」が選択され、図2に示す学習データが図3~図5に示す学習データに分割されるものとする。
 続いて、図3に示す学習データから予測モデルが生成され、この予測モデルが妥当であると評価され、予測モデル記憶部112に登録されるものとする。
 続いて、図4に示す学習データから予測モデルが生成され、この予測モデルが妥当でないと評価され、第1説明変量として「サイズ」が選択され、図4に示す学習データが図6~図7に示す学習データに分割されるものとする。
 続いて、図5に示す学習データから予測モデルが生成され、この予測モデルが妥当であると評価され、予測モデル記憶部112に登録されるものとする。
 続いて、図6に示す学習データから予測モデルが生成され、この予測モデルが妥当でないと評価され、第1説明変量として「色」が選択され、図6に示す学習データが図8~図9に示す学習データに分割されるものとする。
 続いて、図7に示す学習データから予測モデルが生成され、この予測モデルが妥当であると評価され、予測モデル記憶部112に登録されるものとする。
 続いて、図8に示す学習データから予測モデルが生成され、この予測モデルが妥当でないと評価され、第1説明変量が選択されず、予測モデルが予測モデル記憶部112に登録されないものとする。
 続いて、図9に示す学習データから予測モデルが生成され、この予測モデルが妥当であると評価され、予測モデル記憶部112に登録されるものとする。
 この結果、予測モデル記憶部112には、図11に示す予測モデルが生成される。なお、図11に示す例では、各丸印がノードに対応しており、末端のノード以外には、選択された第1説明変量が割り当てられている。また、末端のノードには、第1説明変量の値の組み合わせに対応する第1回帰式、又は第1回帰式が割り当てられていないことを示すフラグ「予測モデル無し」が割り当てられている。また、ノード間を結ぶ枝には、上位のノードにおける第1説明変量の取りうる値が割り当てられている。なお、最上位のノードから末端のノードに至るまでに表れる第1説明変量及びその値が、末端ノードに割り当てられている回帰式及びフラグに対応する条件を表しているとする。
 以上のように、本実施形態では、学習データから生成された予測モデルが妥当でないと評価された場合、選択された第1説明変量の値が同一である組の集合に学習データが分割され、分割された新たな学習データそれぞれから予測モデルが生成される。従って本実施形態によれば、説明変量に内在する複数の特徴を考慮して、固定的な第1説明変量及び時系列的な第2説明変量と被説明変量との間の関係を説明する予測モデルを生成することができる。また、従来よりも精緻な予測モデルを生成することができる。
 例えば図2に示すように、「ライン」が「ボトム」である商品は、通常は試着されるため試着回数が多くなるが、「ライン」が「トップス」である商品は、通常は試着されないため試着回数が少なくなる傾向にある。
 従来の技術では、このような「ライン」の値による特徴の違いを考慮することができないため、「ライン」が「ボトム」である学習データと「ライン」が「トップス」である学習データをひとまとめにして、予測モデルを生成していた。このため、「ライン」の値による特徴の違いが平均化されてしまい、妥当な予測モデルを生成することができなかった。
 これに対し、本実施形態では、「ライン」が「ボトム」である学習データ及び「ライン」が「トップス」である学習データから個別に予測モデルを生成できるため、「ライン」の値による特徴の違いを捉えた妥当な予測モデルを生成することができる。
 また本実施形態によれば、固定的な第1説明変量及び時系列的な第2説明変量と被説明変量との間の関係を説明する予測モデルを生成できるので、従来に比べ学習データとして取り扱える対象を拡大することができる。
 なお、本実施形態の予測モデル生成装置は、CPUなどの制御装置と、ROMやRAMなどの記憶装置と、HDDやリムーバブルドライブ装置などの外部記憶装置と、ディスプレイなどの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。
(変形例)
 本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。
 例えば上記実施の形態では、線形な回帰式によって第1回帰式を構成しているが、n次式、log関数、又は指数関数などの非線形関数を利用して第1回帰式を構成することもできる。
 また上記実施の形態では、第1説明変量として、「色」、「サイズ」、「ライン」を例に取り説明したが、第1説明変量の種類はこれに限定されるものではなく、また、その個数も2以上の任意の値とすることができる。同様に、第2説明変量として、「ピックアップ数」、「試着数」、「販売数」を例に取り説明したが、第2説明変量の種類及び個数はこれに限定されるものではない。同様に、被説明変量として、「次期販売数」を例に取り説明したが、これに限定されるものではない。
 また、上記実施形態の予測モデル生成装置の機能を、予測モデル生成プログラムを実行することにより実現させるようにしてもよい。
 この場合、上記実施形態の予測モデル生成装置で実行される予測モデル生成プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供される。また、上記実施形態の予測モデル生成装置で実行される予測モデル生成プログラムを、ROM等に予め組み込んで提供するようにしてもよい。
 上記実施形態の予測モデル生成装置で実行される予測モデル生成プログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、CPUがROM等から予測モデル生成プログラムをRAM上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
 以上のように、本発明にかかる予測モデル生成装置は、説明変量と被説明変量との間の関係を説明する予測モデルの生成に適している。
 100 予測モデル生成装置
 110 学習データ記憶部
 112 予測モデル記憶部
 120 生成部
 122 評価部
 124 選択部
 126 分割部

Claims (5)

  1.  複数種類の固定的な第1説明変量と時系列的な第2説明変量と被説明変量とを対応付けた組の集合である学習データを記憶する学習データ記憶部と、
     前記学習データを学習して、複数種類の前記第1説明変量及び前記第2説明変量と前記被説明変量との間の関係を説明する予測モデルを生成する生成部と、
     前記予測モデルの妥当性を評価し、妥当であると評価した前記予測モデルを予測モデル記憶部に登録する評価部と、
     前記予測モデルが妥当でないと評価された場合に、前記第1説明変量それぞれの第1評価値を算出し、前記第1説明変量のうち最大の前記第1評価値を有する選択説明変量を選択する選択部と、
     同じ値の前記選択説明変量を有する組の集合に前記学習データを分割し、分割した前記学習データそれぞれを新たな学習データとして前記学習データ記憶部に登録する分割部と、を備え、
     前記生成部は、前記新たな学習データ毎に、当該新たな学習データを学習して前記予測モデルを生成することを特徴とする予測モデル生成装置。
  2.  前記生成部は、複数種類の前記第1説明変量及び前記第2説明変量と前記被説明変量との間の関係を説明可能な第1回帰式を設定し、前記第1回帰式に前記学習データを適用した場合における残差が最小となるように前記第1回帰式のパラメータを決定することにより、前記パラメータ決定後の前記第1回帰式を前記予測モデルとして生成することを特徴とする請求項1に記載の予測モデル生成装置。
  3.  前記生成部は、前記第1回帰式に前記学習データを適用することにより自由度調整済みの重回帰係数を第2評価値として算出し、
     前記評価部は、前記第2評価値が閾値以上である場合に前記予測モデルが妥当であると評価し、前記第2評価値が閾値未満である場合に前記予測モデルが妥当でないと評価することを特徴とする請求項2に記載の予測モデル生成装置。
  4.  前記選択部は、前記第1説明変量と前記被説明変量との間の関係を説明可能な第2回帰式を前記第1説明変量毎に設定し、前記第2回帰式それぞれに前記学習データを適用することにより、自由度調整済みの重回帰係数を前記第1評価値として算出することを特徴とする請求項1に記載の予測モデル生成装置。
  5.  前記評価部は、前記新たな学習データから生成された前記予測モデルを妥当であると評価した場合、前記予測モデルと前記選択説明変量及び前記新たな学習データにおける前記選択説明変量の値とを対応付けて前記予測モデル記憶部に登録することを特徴とする請求項1に記載の予測モデル生成装置。
PCT/JP2009/070013 2009-11-27 2009-11-27 予測モデル生成装置 WO2011064876A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/070013 WO2011064876A1 (ja) 2009-11-27 2009-11-27 予測モデル生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/070013 WO2011064876A1 (ja) 2009-11-27 2009-11-27 予測モデル生成装置

Publications (1)

Publication Number Publication Date
WO2011064876A1 true WO2011064876A1 (ja) 2011-06-03

Family

ID=44065995

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/070013 WO2011064876A1 (ja) 2009-11-27 2009-11-27 予測モデル生成装置

Country Status (1)

Country Link
WO (1) WO2011064876A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168458A1 (ja) * 2016-03-28 2017-10-05 日本電気株式会社 予測モデル選択システム、予測モデル選択方法および予測モデル選択プログラム
CN111937084A (zh) * 2018-03-30 2020-11-13 日本电气方案创新株式会社 预测系统、模型生成系统、方法和程序

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222445A (ja) * 2004-02-09 2005-08-18 Nifty Corp データマイニングにおける情報処理方法及び解析装置
JP2008117381A (ja) * 2006-10-10 2008-05-22 Omron Corp 時系列データ解析装置、時系列データ解析システム、時系列データ解析方法、プログラム、および記録媒体
JP2009282926A (ja) * 2008-05-26 2009-12-03 Toshiba Corp 時系列データ分析装置、方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222445A (ja) * 2004-02-09 2005-08-18 Nifty Corp データマイニングにおける情報処理方法及び解析装置
JP2008117381A (ja) * 2006-10-10 2008-05-22 Omron Corp 時系列データ解析装置、時系列データ解析システム、時系列データ解析方法、プログラム、および記録媒体
JP2009282926A (ja) * 2008-05-26 2009-12-03 Toshiba Corp 時系列データ分析装置、方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168458A1 (ja) * 2016-03-28 2017-10-05 日本電気株式会社 予測モデル選択システム、予測モデル選択方法および予測モデル選択プログラム
JPWO2017168458A1 (ja) * 2016-03-28 2018-09-13 日本電気株式会社 予測モデル選択システム、予測モデル選択方法および予測モデル選択プログラム
CN111937084A (zh) * 2018-03-30 2020-11-13 日本电气方案创新株式会社 预测系统、模型生成系统、方法和程序

Similar Documents

Publication Publication Date Title
Sarstedt et al. Treating unobserved heterogeneity in PLS-SEM: A multi-method approach
Bae et al. Product development with data mining techniques: A case on design of digital camera
Kingrani et al. Estimating the number of clusters using diversity
CN101504719B (zh) 图像处理装置和方法
Ghosh et al. Self-adaptive differential evolution for feature selection in hyperspectral image data
CN102376079B (zh) 图像识别信息添加装置和图像识别信息添加方法
CN105938557A (zh) 图像识别方法、图像识别装置
EP3762795B1 (en) Method, device, system and program for setting lighting condition and storage medium
JP4668680B2 (ja) 属性識別システムおよび属性識別辞書生成装置
JP6226701B2 (ja) データ処理方法及び装置、データ識別方法及び装置、プログラム
JP4391506B2 (ja) 評価装置、評価方法及び評価プログラム
TWI620131B (zh) 物品辨識系統與方法
WO2017168460A1 (ja) 情報処理システム、情報処理方法および情報処理プログラム
JPWO2015146113A1 (ja) 識別辞書学習システム、識別辞書学習方法および識別辞書学習プログラム
WO2011064876A1 (ja) 予測モデル生成装置
JP6623851B2 (ja) 学習方法、情報処理装置および学習プログラム
Zhao et al. Men also do laundry: Multi-attribute bias amplification
JP2010092432A (ja) データ類似度計算システム、データ類似度計算方法およびデータ類似度計算プログラム
JP2012226607A5 (ja) 情報処理方法及び装置、パターン識別方法及び装置
JP5423380B2 (ja) 情報処理プログラム及び情報処理方法
JP4859351B2 (ja) 事例データベースの構築方法、判別装置の学習方法、データ判別支援装置、データ判別支援プログラム
US20210117828A1 (en) Information processing apparatus, information processing method, and program
CN111401454A (zh) 一种基于迁移学习的少样本目标识别方法
US20170330055A1 (en) Sequential data analysis apparatus and program
CN104636489B (zh) 描述属性数据的处理方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09851667

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09851667

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP