WO2016151639A1 - 人数予測システム、人数予測方法および人数予測プログラム - Google Patents

人数予測システム、人数予測方法および人数予測プログラム Download PDF

Info

Publication number
WO2016151639A1
WO2016151639A1 PCT/JP2015/001744 JP2015001744W WO2016151639A1 WO 2016151639 A1 WO2016151639 A1 WO 2016151639A1 JP 2015001744 W JP2015001744 W JP 2015001744W WO 2016151639 A1 WO2016151639 A1 WO 2016151639A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
learning
prediction
tree structure
learning model
Prior art date
Application number
PCT/JP2015/001744
Other languages
English (en)
French (fr)
Inventor
紗和子 見上
洋介 本橋
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2017507116A priority Critical patent/JP6414321B2/ja
Priority to PCT/JP2015/001744 priority patent/WO2016151639A1/ja
Publication of WO2016151639A1 publication Critical patent/WO2016151639A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Definitions

  • the present invention relates to a number prediction system, a number prediction method, and a number prediction program for predicting the number of persons in a predetermined place.
  • Patent Document 1 describes an example of a learning device that employs heterogeneous mixed learning.
  • an object of the present invention is to provide a number prediction system, a number prediction method, and a number prediction program that can predict the number of persons in a predetermined place.
  • the system for predicting the number of persons uses a learning model, which is a model for predicting the number of persons at a predetermined location, from the prediction data as leaf nodes, and the conditions regarding the prediction data are determined for nodes other than the leaf nodes.
  • the tree structure model generating means for generating the tree structure model of the binary tree using the learning data, and when the prediction data is input, the individual leaf nodes of the tree structure model according to the prediction data
  • a learning model which is a model for predicting the number of persons in a predetermined place from prediction data, is set as a leaf node, and a condition related to the prediction data is set for nodes other than the leaf node.
  • a tree model of a specified binary tree is generated using learning data, and when the prediction data is input, the learning model indicated by each leaf node of the tree structure model according to the prediction data.
  • a prediction value of the number of persons in a predetermined place is calculated by selecting one learning model from the above and applying prediction data to the selected learning model.
  • the program for predicting the number of persons uses a learning model, which is a model for predicting the number of persons at a predetermined location, based on prediction data as a leaf node, and uses prediction data for nodes other than the leaf node.
  • Tree structure model generation processing for generating a tree structure model for which a condition related to the condition is defined using learning data, and when prediction data is input, the tree structure model is generated according to the prediction data.
  • a predicted value calculation process for calculating a value is executed.
  • the number of persons in a predetermined place can be predicted.
  • the number prediction system of the present invention calculates a predicted value of the number of persons at a predetermined place.
  • a case where the number of persons in an event venue is predicted will be described as an example.
  • the place where the number of people is predicted is not limited to the event venue.
  • FIG. 1 is a block diagram showing an example of the number prediction system of the present invention.
  • the number prediction system 1 of the present invention includes a tree structure model generation unit 2, a learning model selection unit 3, and a predicted value calculation unit 4.
  • the tree structure model generation unit 2 generates a plurality of learning models using learning data in advance and generates a tree structure model for selecting a learning model from the plurality of learning models.
  • FIG. 2 is an explanatory diagram showing an example of learning data.
  • the learning data includes the values of each explanatory variable adopted in the prediction data and the actual values already obtained corresponding to the values of each explanatory variable (in this embodiment, the number of persons at the event venue). Set of actual values).
  • explanatory variables “whether it falls under large consecutive holidays”, “whether it falls on a holiday / holiday”, “average temperature over the past week” and “past It shows the case of using “Number of visitors per week”.
  • “whether or not it corresponds to a large consecutive holiday” means whether or not the measurement date of the actual value corresponds to a large consecutive holiday.
  • the value when the measurement date of the actual value corresponds to a large holiday is “1”, and the value when the measurement date does not correspond to “0”. The same applies to “whether it falls on a holiday / holiday”.
  • “Past week” means the past week based on the measurement date of the actual value.
  • One row of data shown in FIG. 2 corresponds to one set of data. Although only two sets of data are shown in FIG. 2, the learning data includes a large number of sets of data.
  • the “explanatory variable” is a variable representing data used as a parameter in prediction.
  • a variable representing a prediction target is referred to as an “object variable”.
  • the number of persons at the event venue is the objective variable.
  • the tree structure model generation unit 2 generates a plurality of learning models and tree structure models using, for example, the learning data illustrated in FIG.
  • the learning data may be stored in advance in, for example, a storage device (not shown in FIG. 1) provided in the number prediction system 1. Then, the tree structure model generation unit 2 may read the learning data from the storage device.
  • the learning model is a model for deriving a prediction value (in this embodiment, a prediction value of the number of persons in the event venue) when prediction data is given.
  • a prediction value in this embodiment, a prediction value of the number of persons in the event venue
  • the learning model is information indicating regularity established between the explanatory variable and the objective variable, which is derived from the learning data, for example.
  • the learning model is generated in the form of a prediction formula, for example.
  • the predicted value of the number of persons at the event venue is calculated by substituting the prediction data into the explanatory variable of the prediction formula.
  • the case where the learning model is in the form of a prediction formula is taken as an example, but the format of the learning model is not necessarily a prediction expression.
  • the tree structure model generated by the tree structure model generation unit 2 is a model for selecting a learning model corresponding to the prediction data from a plurality of learning models.
  • This tree structure model has a binary tree structure.
  • this tree structure model is referred to as a selection model.
  • FIG. 3 is a schematic diagram illustrating an example of the selection model.
  • the selection model uses the learning model as a leaf node.
  • conditions regarding prediction data are defined for each node other than leaf nodes in the selection model. This condition may be referred to as a gate function.
  • Each node other than the leaf node in the selection model has two child nodes. In FIG. 3, symbols N1 to N9 for distinguishing the nodes are illustrated for convenience.
  • the tree structure model generation unit 2 When the tree structure model generation unit 2 generates a selection model having each learning model as a leaf node and each learning model, the tree structure model generation unit 2 inputs the selection model and each learning model to the learning model selection unit 3.
  • FIG. 4 is an explanatory diagram illustrating an example of prediction data.
  • the learning data includes the value of each explanatory variable employed in the prediction data and the actual value corresponding to the value of each explanatory variable (see FIG. 2). Therefore, the explanatory variables used in the prediction data and the explanatory variables used in the learning data are common.
  • the prediction data includes explanatory variables such as “whether it falls under large consecutive holidays”, “whether it falls on a holiday / holiday”, “average temperature over the past week”, and “ It shows the case of using the “Number of visitors per week”.
  • “whether or not it corresponds to a large consecutive holiday” means whether or not the prediction target date of the number of people corresponds to a large consecutive holiday.
  • the value when the number of days subject to prediction corresponds to a large holiday is “1”, and the value when the number is not applicable is “0”. The same applies to “whether it falls on a holiday / holiday”.
  • “the past week” in the prediction data means the past week based on the prediction date of the number of people.
  • explanatory variables used in the learning data and the prediction data are not limited to the explanatory variables illustrated in FIG. 2 and FIG.
  • “average precipitation during a certain period in the past”, “the number of events accessed to the website during a certain period in the past”, “the number of event reservations at a point before a certain period in the past”, etc. may be used as explanatory variables.
  • “Day of the week” or the like may be used as an explanatory variable. “Day of the week” means the day of the week on which the actual value is measured in the learning data, and means the day of the week on which the number of people is predicted in the prediction data.
  • the learning model selection unit 3 selects one learning model from the learning models indicated by the individual leaf nodes of the selection model according to the prediction data. More specifically, the learning model selection unit 3 selects one of the two child nodes from the root node of the selection model as a starting point depending on whether the prediction data satisfies the condition indicated by the node. follow the nodes while repeating. Then, when the learning model selection unit 3 arrives at the leaf node, the learning model selection unit 3 selects the learning model indicated by the leaf node. The learning model selection unit 3 inputs the prediction data and the selected learning model to the prediction value calculation unit 4.
  • the prediction value calculation unit 4 applies the prediction data to the learning model, thereby calculating the prediction value of the number of persons at the event venue. calculate.
  • the tree structure model generation unit 2, the learning model selection unit 3, and the predicted value calculation unit 4 are realized by, for example, a CPU of a computer that operates according to a number prediction program.
  • the CPU reads the number prediction program from a program recording medium such as a program storage device (not shown in FIG. 1) of the computer, and in accordance with the number prediction program, the tree structure model generation unit 2 and the learning model selection unit 3 and the predicted value calculation unit 4 operate.
  • the tree structure model generation unit 2, the learning model selection unit 3, and the predicted value calculation unit 4 may be realized by different hardware.
  • the number prediction system 1 may have a configuration in which two or more physically separated devices are connected by wire or wirelessly.
  • the learning device including the tree structure model generation unit 2 and the prediction device including the learning model selection unit 3 and the prediction value calculation unit 4 may be realized as separate devices.
  • FIG. 5 is a flowchart showing an example of processing progress of the present invention.
  • the tree structure model generation unit 2 generates, for example, a plurality of learning models and a selection model illustrated in FIG. 3 using the learning data illustrated in FIG. 2 (step S1).
  • each learning model is a prediction formula
  • the tree structure model generation unit 2 may generate a plurality of learning models and selection models by, for example, heterogeneous mixed learning.
  • the tree structure model generation unit 2 sets a hierarchical hidden structure that is a structure in which hidden variables are represented by a tree structure, and a learning model representing a probability model is arranged at a leaf node of the tree structure. Then, based on the learning data and the learning model, the tree structure model generation unit 2 changes the path hidden variable that is a hidden variable included in the path connecting the root node to the target node in the hierarchical hidden structure. Calculate the probability. Further, the tree structure model generation unit 2 optimizes the learning model with respect to the calculated variation probability based on the learning data.
  • the tree structure model generation unit 2 optimizes the conditions determined for the node of the hierarchical hidden structure based on the variation probability of the hidden variable at the node. Through the processing as described above, the tree structure model generation unit 2 can generate a plurality of learning models and selection models.
  • the algorithm that the tree structure model generation unit 2 generates each learning model and selection model is not limited to heterogeneous mixed learning.
  • the tree structure model generation unit 2 may generate each learning model or selection model according to Bayesian
  • Models “Bayesian Treed Linear Model” and “Dirichlet Process Mixtures of Generalized Linear Models” are the names of the algorithms.
  • the tree structure model generation unit 2 may generate each learning model or selection model according to an algorithm employed by the machine learning free software named “Weka”.
  • the machine learning algorithm employed in “Weka” includes, for example, an algorithm named “LMT” and an algorithm named “M5P”.
  • the tree structure model generation unit 2 inputs the generated learning models and selection models to the learning model selection unit 3.
  • the learning model selection unit 3 holds each learning model and selection model.
  • Prediction data is input to the learning model selection unit 3.
  • the learning model selection unit 3 selects one learning model from the learning models indicated by the individual leaf nodes of the selected model according to the prediction data (step S2).
  • the learning model selection unit 3 selects one of the two child nodes from the root node of the selection model as a starting point depending on whether the prediction data satisfies the condition indicated by the node.
  • the learning model selection part 3 should just select the learning model which the leaf node shows, when it arrives at a leaf node.
  • the operation of the learning model selection unit 3 will be described by taking each prediction data exemplified in FIGS. 4A and 4B as an example. Further, the operation of the learning model selection unit 3 will be described on the assumption that the selection model shown in FIG. 3 has been generated in step S1.
  • the prediction data shown in FIG. 4A is input to the learning model selection unit 3.
  • the prediction data shown in FIG. 4A indicates that the prediction target day of the number of people corresponds to a large consecutive holiday, the average temperature of the prediction target date in the past week is 16 ° C., and the like. Therefore, the prediction data shown in FIG. 4A is based on the condition “corresponds to a large holiday” at the root node N1 of the selected model, or the “average temperature in the past week is less than 19 ° C. at the node N4. Is satisfied. Therefore, the learning model selection unit 3 follows the nodes in the order of the node N4 and the leaf node N8 from the root node N1 of the selection model, and selects the learning model 1 indicated by the leaf node N8 (see FIG. 3).
  • the prediction data shown in FIG. 4 (b) shows that the prediction target day of the number of people does not correspond to a large consecutive holiday, the prediction target date does not correspond to a holiday / holiday, and the number of visitors in the past week of the prediction target date. It shows that there are 2300 people. Accordingly, the prediction data in FIG. 4B does not satisfy the condition “corresponds to a large holiday” at the root node N1 of the selected model and the condition “corresponds to a holiday / holiday” at the node N2. The condition of “the number of visitors in the past week is less than 4000” in the node N3 is satisfied.
  • the learning model selection unit 3 follows the nodes in the order of the node N2, the node N3, and the leaf node N5 from the root node N1 of the selection model, and selects the learning model 2 indicated by the leaf node N5 (see FIG. 3).
  • the learning model selection operation has been described using the two prediction data shown in FIG. 4 as an example. However, when other prediction data is input, the learning model selection unit 3 performs the same operation. Select a learning model.
  • the learning model selection unit 3 inputs the input prediction data and the selected learning model to the prediction value calculation unit 4.
  • the predicted value calculation unit 4 calculates the predicted value of the number of persons at the event venue by applying the prediction data to the input learning model (the learning model selected in step S2) (step S3).
  • the calculation operation of the predicted value will be specifically described.
  • Each learning model is assumed to be a prediction formula expressed in the following formula (1).
  • y is an objective variable that represents the predicted value of the number of people at the event venue.
  • x 1 to x n are explanatory variables.
  • a 1 ⁇ a n are coefficients of the explanatory variables.
  • b is a constant term. The value of a 1 ⁇ a n and b (in other words, for each learning model) for each prediction expression is determined in step S1.
  • Each explanatory variable such as “whether it falls on a large holiday”, “whether it falls on a holiday / holiday”, “average temperature in the past week” and “number of visitors in the past week” are predictive formulas, respectively.
  • the predicted value calculation unit 4 calculates the predicted value of the number of people by substituting the value of the corresponding explanatory variable in the prediction data for each of the explanatory variables x 1 to x 4 in the prediction formula selected in step S2. To do.
  • each of the examples shown in FIG. 4 is “whether it falls under a large holiday”, “whether it falls on a holiday / holiday”, “average temperature in the past week”, and “number of visitors in the past week”.
  • the values of the explanatory variables are all numerical values. As described above, regarding the explanatory variable whose value is a numerical value, the predicted value calculation unit 4 may substitute the value (numerical value) of the explanatory variable into the corresponding explanatory variable in the prediction formula.
  • An explanatory variable may take an item as a value.
  • explanatory variables are called categorical variables.
  • An example is shown in which “whether or not a holiday falls on a holiday” is indicated by a numerical value “1” or “0”. Therefore, regarding “whether or not it corresponds to a large consecutive holiday” and “whether or not it falls on a holiday / holiday”, the values may be substituted into corresponding explanatory variables among x 1 to x n .
  • categorical variables that do not take numerical values will be described.
  • An example of such a categorical variable is “day of the week”. Taking “day of the week” as an example, the categorical variable “day of the week” takes items such as “Sunday”, “Monday”,.
  • Each value of one categorical variable corresponds to one of the explanatory variables x 1 to x n in the prediction formula.
  • each possible value of the categorical variable “day of the week” corresponds to one of the explanatory variables x 1 to x n in the prediction formula, respectively.
  • the predicted value calculation unit 4 adds a binary value (in this example, in each explanatory variable in the prediction formula corresponding to each value of the categorical variable) 0 or 1) is substituted.
  • the predicted value calculation unit 4 substitutes 1 for the explanatory variable in the prediction formula corresponding to Monday, and substitutes 0 for each explanatory variable in the prediction formula corresponding to each day of the week other than Monday. Therefore, even when the value of the explanatory variable corresponding to the categorical variable is included in the prediction data, the predicted value calculation unit 4 can calculate the predicted value of the number of people.
  • the tree structure model generation unit 2 generates a selection model having a learning model for predicting the number of persons in a predetermined place as a leaf node. Then, the learning model 3 selects one learning model from the learning models indicated by the individual leaf nodes of the selected model, according to the given prediction data. Furthermore, the predicted value calculation unit 4 calculates the predicted value of the number of persons in a predetermined place by applying the prediction data to the learning model. Therefore, according to the present invention, the number of persons in a predetermined place can be predicted.
  • the data scientist may generate each learning model and selection model based on the learning data, and the learning model selection unit 3 may hold each learning model and selection model.
  • the tree structure model generation unit 2 may not be provided, and the number prediction system 1 may execute steps S2 and S3 without executing step S1.
  • the event venue is illustrated as an example of the predetermined location, but the location where the number of people is predicted is not limited to the event venue.
  • the prediction target of the present invention is the number of people in an amusement park, the number of people in a train, the number of people in an airport, the number of people in a retail store, the number of people on a highway, etc. There may be.
  • the number of persons in a predetermined place at a predetermined time may be a prediction target.
  • the learning data may include the actual value of the number of persons in a predetermined place at a predetermined time (for example, a specific time such as 15:00).
  • the tree structure model generation unit 2 uses the learning data to generate a selection model having a learning model for predicting the number of persons in a predetermined place at a predetermined time as a leaf node.
  • the operation of the learning model selection unit 3 is the same as the operation described in the above embodiment.
  • the predicted value calculation unit 4 calculates the predicted value of the number of persons in a predetermined place at a predetermined time by applying the prediction data to the learning model selected by the learning model selection unit 3.
  • the objective variable of the learning model is different from that in the above embodiment, but the operations of the tree structure model generation unit 2 and the predicted value calculation unit 4 are the same as those described in the above embodiment.
  • the number of persons having a predetermined attribute in a predetermined place may be a prediction target.
  • attributes include sex, age, nationality, etc., but the predetermined attributes are not limited to these.
  • the learning data may include the actual value of the number of persons having a predetermined attribute (for example, persons in their 20s) in a predetermined place.
  • the tree structure model generation unit 2 uses the learning data to generate a selection model having a learning model for predicting the number of persons having a predetermined attribute in a predetermined place as a leaf node.
  • the operation of the learning model selection unit 3 is the same as the operation described in the above embodiment.
  • the predicted value calculation unit 4 calculates the predicted value of the number of persons having a predetermined attribute in a predetermined place by applying the prediction data to the learning model selected by the learning model selection unit 3.
  • the objective variable of the learning model is different from that in the above embodiment, but the operations of the tree structure model generation unit 2 and the predicted value calculation unit 4 are the same as those described in the above embodiment.
  • the number of persons having a predetermined attribute in a predetermined place at a predetermined time may be a prediction target.
  • FIG. 6 is a schematic block diagram showing a configuration example of a computer according to the embodiment of the present invention.
  • the computer 1000 includes a CPU 1001, a main storage device 1002, an auxiliary storage device 1003, an interface 1004, and an input device 1006.
  • the input device 1006 is an input interface for inputting prediction data.
  • the number prediction system 1 of the present invention is implemented in a computer 1000.
  • the operation of the number prediction system 1 is stored in the auxiliary storage device 1003 in the form of a program.
  • the CPU 1001 reads out the program from the auxiliary storage device 1003, develops it in the main storage device 1002, and executes the above processing according to the program.
  • the auxiliary storage device 1003 is an example of a tangible medium that is not temporary.
  • Other examples of the non-temporary tangible medium include a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, and a semiconductor memory connected via the interface 1004.
  • this program is distributed to the computer 1000 via a communication line, the computer 1000 that has received the distribution may develop the program in the main storage device 1002 and execute the above processing.
  • the program may be for realizing a part of the above-described processing.
  • the program may be a differential program that realizes the above-described processing in combination with another program already stored in the auxiliary storage device 1003.
  • FIG. 7 is a block diagram showing an outline of the number prediction system of the present invention.
  • the number prediction system of the present invention includes a tree structure model generation means 72, a learning model selection means 73, and a prediction value calculation means 74.
  • the tree structure model generation means 72 uses a learning model, which is a model for predicting the number of persons in a predetermined place, from the prediction data as a leaf node, and nodes other than the leaf node
  • a tree structure model for example, a selection model
  • a binary tree in which conditions for prediction data are defined is generated using learning data.
  • the learning model selection unit 73 selects one of the learning models indicated by the individual leaf nodes of the tree structure model according to the prediction data when the prediction data is input. Select one learning model.
  • the predicted value calculation means 74 calculates the predicted value of the number of persons in a predetermined place by applying the prediction data to the selected learning model.
  • Such a configuration makes it possible to predict the number of persons in a predetermined place.
  • the tree structure model generating means 72 generates a tree structure model having a learning model for predicting the number of persons at a predetermined place at a predetermined time as a leaf node, and the predicted value calculating means 74 is selected.
  • the predicted value of the number of persons in a predetermined place at a predetermined time may be calculated by applying prediction data to the learned model.
  • the tree structure model generation means 72 generates a tree structure model having a learning model for predicting the number of persons having a predetermined attribute in a predetermined place as a leaf node, and the predicted value calculation means 74 is selected.
  • the predicted value of the number of persons having a predetermined attribute in a predetermined place may be calculated by applying prediction data to the learning model.
  • the tree structure model generation means 72 generates a tree structure model having a learning model for predicting the number of persons at the event venue as a leaf node, and the prediction value calculation means 74 predicts the selected learning model.
  • the predicted value of the number of persons at the event venue may be calculated by applying the business data.
  • the tree structure model generation means 72 sets a hierarchical hidden structure in which a hidden variable is represented by a tree structure and a learning model representing a probability model is arranged on a leaf node of the tree structure, and learning data and Based on the learning model, the variation probability of the route hidden variable, which is a hidden variable included in the route connecting from the root node to the target node in the hierarchical hidden structure, is calculated, and the calculated variation based on the learning data
  • the tree model may be generated by optimizing the learning model with respect to the probability and optimizing the conditions defined for the node of the hierarchical hidden structure based on the variation probability of the hidden variable at the node.
  • the present invention is preferably applied to a number prediction system for predicting the number of persons in a predetermined place.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 所定の場所にいる者の人数を予測することができる人数予測システムを提供する。木構造モデル生成手段72は、予測用データから所定の場所にいる者の人数を予測するためのモデルである学習モデルを葉ノードとし、葉ノード以外のノードには予測用データに関する条件が定められた二分木の木構造モデルを、学習用データを用いて生成する。学習モデル選択手段73は、予測用データが入力されたときに、当該予測用データに応じて、木構造モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択する。予測値算出手段74は、選択された学習モデルに予測用データを適用することによって、所定の場所にいる者の人数の予測値を算出する。

Description

人数予測システム、人数予測方法および人数予測プログラム
 本発明は、所定の場所にいる者の人数を予測する人数予測システム、人数予測方法および人数予測プログラムに関する。
 異なるパターンや規則性に従っているデータが混在して蓄積された場合であっても、そのようなデータを学習用データとして用いて、学習モデルを選択するための選択モデルを生成する技術が提案されている(例えば、特許文献1および非特許文献1,2を参照)。学習モデルは、予測値の導出に用いられる。予測用データが与えられると、予測用データと選択モデルとに基づいて学習モデルが選択される。そして、選択された学習モデルにその予測用データが適用されることによって、予測値が得られる。上記のような学習アルゴリズムは、異種混合学習と呼ばれている。特許文献1には、異種混合学習を採用した学習器の一例が記載されている。
米国特許出願公開第2014/0222741A1号明細書
「一歩進んだ機械学習 IoTで激増するデータの活用現場に浸透」、日経BP社、「日経ビッグデータ」、2014年06号、p.7-12 藤巻遼平、森永聡、「ビッグデータ時代の最先端データマイニング」、日本電気株式会社、「NEC技報」、2012年No.2、p.81-85
 所定の場所にいる者の人数を予測できれば、その場所の管理者にとって、その場所を管理しやすくなる。
 そこで、本発明は、所定の場所にいる者の人数を予測することができる人数予測システム、人数予測方法および人数予測プログラムを提供することを目的とする。
 本発明による人数予測システムは、予測用データから所定の場所にいる者の人数を予測するためのモデルである学習モデルを葉ノードとし、葉ノード以外のノードには予測用データに関する条件が定められた二分木の木構造モデルを、学習用データを用いて生成する木構造モデル生成手段と、予測用データが入力されたときに、当該予測用データに応じて、木構造モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択する学習モデル選択手段と、選択された学習モデルに予測用データを適用することによって、所定の場所にいる者の人数の予測値を算出する予測値算出手段とを備えることを特徴とする。
 また、本発明による人数予測方法は、予測用データから所定の場所にいる者の人数を予測するためのモデルである学習モデルを葉ノードとし、葉ノード以外のノードには予測用データに関する条件が定められた二分木の木構造モデルを、学習用データを用いて生成し、予測用データが入力されたときに、当該予測用データに応じて、木構造モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択し、選択した学習モデルに予測用データを適用することによって、所定の場所にいる者の人数の予測値を算出する
 ことを特徴とする。
 また、本発明による人数予測プログラムは、コンピュータに、予測用データから所定の場所にいる者の人数を予測するためのモデルである学習モデルを葉ノードとし、葉ノード以外のノードには予測用データに関する条件が定められた二分木の木構造モデルを、学習用データを用いて生成する木構造モデル生成処理、予測用データが入力されたときに、当該予測用データに応じて、木構造モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択する学習モデル選択処理、および、選択された学習モデルに予測用データを適用することによって、所定の場所にいる者の人数の予測値を算出する予測値算出処理を実行させることを特徴とする。
 本発明によれば、所定の場所にいる者の人数を予測することができる。
本発明の人数予測システムの例を示すブロック図である。 学習用データの例を示す説明図である。 選択モデルの例を示す模式図である。 予測用データの例を示す説明図である。 本発明の処理経過の例を示すフローチャートである。 本発明の実施形態に係るコンピュータの構成例を示す概略ブロック図である。 本発明の人数予測システムの概要を示すブロック図である。
 以下、本発明の実施形態を図面を参照して説明する。
 本発明の人数予測システムは、所定の場所にいる者の人数の予測値を算出する。以下に示す実施形態では、イベント会場にいる者の人数を予測する場合を例にして説明するが、人数の予測対象となる場所は、イベント会場に限定されない。
 図1は、本発明の人数予測システムの例を示すブロック図である。本発明の人数予測システム1は、木構造モデル生成部2と、学習モデル選択部3と、予測値算出部4とを備える。
 木構造モデル生成部2は、予め学習用データを用いて、複数の学習モデルを生成するとともに、その複数の学習モデルの中から学習モデルを選択するための木構造モデルを生成する。
 図2は、学習用データの例を示す説明図である。学習用データは、予測用データで採用されている各説明変数の値と、その各説明変数の値に対応する、既に得られた実績値(本実施形態では、イベント会場にいる者の人数の実績値)との組の集合である。図2に示す例では、学習用データにおいて、説明変数として、「大型連休に該当するか否か」、「休日・祝日に該当するか否か」、「過去一週間の平均気温」および「過去一週間の来場者数」を用いている場合を示している。学習用データにおいて、「大型連休に該当するか否か」は、実績値の測定日が大型連休に該当するか否かを意味している。実績値の測定日が大型連休に該当する場合の値が“1”であり、該当しない場合の値が“0”である。「休日・祝日に該当するか否か」に関しても同様である。また、「過去一週間」とは、実績値の測定日を基準とする過去一週間を意味する。図2に示す1行分のデータが1組のデータに該当する。図2では2組のデータのみを図示しているが、学習用データは、多数の組のデータを含んでいる。
 なお、「説明変数」とは、予測の際にパラメータとして用いるデータを表す変数である。また、予測対象を表す変数を「目的変数」と呼ぶ。本実施形態では、イベント会場にいる者の人数が目的変数となる。
 木構造モデル生成部2は、例えば、図2に例示する学習用データを用いて、複数の学習モデルや木構造モデルを生成する。学習用データは、例えば、人数予測システム1が備える記憶装置(図1において図示略)に予め記憶させておけばよい。そして、木構造モデル生成部2は、その記憶装置から学習用データを読み込めばよい。
 学習モデルは、予測用データが与えられたときに予測値(本実施形態では、イベント会場にいる者の人数の予測値)を導出するためのモデルである。学習モデルに予測用データを適用することにより、イベント会場にいる者の人数の予測値が得られる。学習モデルは、例えば、学習用データから導出された、説明変数と目的変数との間に成り立つ規則性を示す情報である。学習モデルは、例えば、予測式の形式で生成される。この場合、予測用データがその予測式の説明変数に代入されることによって、イベント会場にいる者の人数の予測値が算出される。ここでは、学習モデルが予測式の形式である場合を例にしたが、学習モデルの形式は予測式であるとは限らない。
 木構造モデル生成部2によって生成される木構造モデルは、複数の学習モデルの中から、予測用データに応じた学習モデルを選択するためのモデルである。また、この木構造モデルは、二分木の木構造となっている。以下、この木構造モデルを選択モデルと記す。図3は、選択モデルの例を示す模式図である。選択モデルは、学習モデルを葉ノードとしている。また、選択モデル内の葉ノード以外の各ノードには、予測用データに関する条件が定められている。この条件を門関数と称する場合もある。また、選択モデル内の葉ノード以外の各ノードには、2つの子ノードが存在する。なお、図3では、ノードを区別するための符号N1~N9を便宜的に図示している。
 木構造モデル生成部2は、学習モデルを葉ノードとする選択モデルや各学習モデルを生成すると、その選択モデルおよび各学習モデルを学習モデル選択部3に入力する。
 学習モデル選択部3には、予測用データが入力される。図4は、予測用データの例を示す説明図である。図4に示す例では、2つの予測用データを例示している。図4(a)および図4(b)は、それぞれ1つの予測用データを示している。前述のように、学習用データは、予測用データで採用されている各説明変数の値と、その各説明変数の値に対応する実績値を含んでいる(図2参照)。従って、予測用データで用いられる説明変数と、学習用データで用いられる説明変数とは共通である。図4に示す例では、予測用データが説明変数として、「大型連休に該当するか否か」、「休日・祝日に該当するか否か」、「過去一週間の平均気温」および「過去一週間の来場者数」を用いている場合を示している。ただし、予測用データでは、「大型連休に該当するか否か」は、人数の予測対象日が大型連休に該当するか否かを意味している。人数の予測対象日が大型連休に該当する場合の値が“1”であり、該当しない場合の値が“0”である。「休日・祝日に該当するか否か」に関しても同様である。また、予測用データにおける「過去一週間」とは、人数の予測対象日を基準とする過去一週間を意味する。
 なお、学習用データや予測用データで用いられる説明変数は、図2や図4で例示する説明変数に限定されない。例えば、「過去一定期間の平均降水量」、「過去一定期間におけるイベントのWebサイトへのアクセス数」、「過去一定期間前の時点におけるイベントの予約者数」等を説明変数として用いてもよい。また、「曜日」等が説明変数として用いられていてもよい。「曜日」は、学習用データでは、実績値の測定日の曜日を意味し、予測用データでは、人数の予測対象日の曜日を意味する。
 学習モデル選択部3は、1つの予測用データが入力されると、その予測用データに応じて、選択モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択する。より具体的には、学習モデル選択部3は、選択モデルの根ノードを起点として、ノードが示す条件を予測用データが満たしているか否かに応じて2つの子ノードのいずれか一方を選択することを繰り返しつつノードを辿る。そして、学習モデル選択部3は、葉ノードに到着したときに、その葉ノードが示す学習モデルを選択する。学習モデル選択部3は、その予測用データおよび選択した学習モデルを予測値算出部4に入力する。
 予測値算出部4は、学習モデル選択部3から予測用データおよび学習モデルが入力されると、その学習モデルにその予測用データを適用することによって、イベント会場にいる者の人数の予測値を算出する。
 木構造モデル生成部2、学習モデル選択部3および予測値算出部4は、例えば、人数予測プログラムに従って動作するコンピュータのCPUによって実現される。この場合、CPUは、例えば、そのコンピュータのプログラム記憶装置(図1において図示略)等のプログラム記録媒体から人数予測プログラムを読み込み、その人数予測プログラムに従って、木構造モデル生成部2、学習モデル選択部3および予測値算出部4として動作する。また、木構造モデル生成部2、学習モデル選択部3および予測値算出部4がそれぞれ別のハードウェアによって実現されていてもよい。
 また、人数予測システム1は、2つ以上の物理的に分離した装置が有線または無線で接続されている構成であってもよい。
 また、木構造モデル生成部2を含む学習器と、学習モデル選択部3および予測値算出部4を含む予測器とがそれぞれ別々の装置として実現されていてもよい。
 次に、本発明の処理経過の例を説明する。図5は、本発明の処理経過の例を示すフローチャートである。木構造モデル生成部2は、例えば、図2に例示する学習用データを用いて、複数の学習モデルや図3に例示する選択モデルを生成する(ステップS1)。ここでは、各学習モデルが予測式である場合を例にして説明する。
 木構造モデル生成部2は、例えば、異種混合学習によって、複数の学習モデル、および選択モデルを生成してもよい。この場合、木構造モデル生成部2は、隠れ変数が木構造で表され、その木構造の葉ノードに確率モデルを表す学習モデルが配された構造である階層隠れ構造を設定する。そして、木構造モデル生成部2は、学習用データとその学習モデルとに基づいて、その階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する。さらに、木構造モデル生成部2は、学習用データに基づいて、算出した変分確率に対して学習モデルを最適化する。また、木構造モデル生成部2は、その階層隠れ構造のノードに定められる条件を、そのノードにおける隠れ変数の変分確率に基づいて最適化する。以上のような処理によって、木構造モデル生成部2は、複数の学習モデル、および選択モデルを生成できる。
 木構造モデル生成部2が、各学習モデルや選択モデルを生成するアルゴリズムは、異種混合学習に限定されない。例えば、木構造モデル生成部2は、Bayesian Treed Linear Model あるいはDirichlet Process Mixtures of Generalized Linear Models に従って、各学習モデルや選択モデルを生成してもよい。“Bayesian Treed Linear Model ”および“Dirichlet Process Mixtures of Generalized Linear Models ”は、それぞれアルゴリズムの名称である。
 また、木構造モデル生成部2は、“Weka”という名称の機械学習のフリーソフトウェアで採用されているアルゴリズムに従って、各学習モデルや選択モデルを生成してもよい。“Weka”で採用されている機械学習アルゴリズムには、例えば、“LMT”という名称のアルゴリズムや、“M5P”という名称のアルゴリズムがある。
 木構造モデル生成部2は、生成した各学習モデルおよび選択モデルを学習モデル選択部3に入力する。学習モデル選択部3は、その各学習モデルおよび選択モデルを保持する。
 学習モデル選択部3には、予測用データが入力される。予測用データが入力されると、学習モデル選択部3は、その予測用データに応じて、選択モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択する(ステップS2)。既に説明したように、学習モデル選択部3は、選択モデルの根ノードを起点として、ノードが示す条件を予測用データが満たしているか否かに応じて2つの子ノードのいずれか一方を選択することを繰り返しつつノードを辿る。そして、学習モデル選択部3は、葉ノードに到着したときに、その葉ノードが示す学習モデルを選択すればよい。
 図4(a)および図4(b)に例示する各予測用データを例にして、学習モデル選択部3の動作を説明する。また、ステップS1で、図3に示す選択モデルが生成されたものとして学習モデル選択部3の動作を説明する。
 図4(a)に示す予測用データが学習モデル選択部3に入力されたとする。図4(a)に示す予測用データは、人数の予測対象日が大型連休に該当することや、予測対象日の過去一週間の平均気温が16℃であること等を示している。従って、図4(a)に示す予測用データは、選択モデルの根ノードN1における「大型連休に該当する。」という条件や、ノードN4における「過去一週間の平均気温が19℃未満である。」という条件を満たしている。従って、学習モデル選択部3は、選択モデルの根ノードN1から、ノードN4、葉ノードN8の順にノードを辿り、葉ノードN8が示す学習モデル1を選択する(図3参照)。
 また、図4(b)に予測用データが学習モデル選択部3に入力されたとする。図4(b)に示す予測用データは、人数の予測対象日が大型連休に該当しないこと、その予測対象日が休日・祝日に該当しないこと、予測対象日の過去一週間の来場者数が2300人であること等を示している。従って、図4(b)に予測用データは、選択モデルの根ノードN1における「大型連休に該当する。」という条件や、ノードN2における「休日・祝日に該当する。」という条件は満たさず、ノードN3における「過去一週間の来場者数が4000人未満である。」という条件を満たしている。従って、学習モデル選択部3は、選択モデルの根ノードN1から、ノードN2、ノードN3、葉ノードN5の順にノードを辿り、葉ノードN5が示す学習モデル2を選択する(図3参照)。
 ここでは、図4に示す2つの予測用データを例にして学習モデルの選択動作を説明したが、他の予測用データが入力された場合にも、学習モデル選択部3は、同様の動作で学習モデルを選択する。
 学習モデル選択部3は、入力された予測用データおよび選択した学習モデルを予測値算出部4に入力する。
 予測値算出部4は、入力された学習モデル(ステップS2で選択された学習モデル)に、予測用データを適用することによって、イベント会場にいる者の人数の予測値を算出する(ステップS3)。以下に、予測値の算出動作を具体的に説明する。各学習モデルが、以下の式(1)の形式で表される予測式であるものとする。
 y=a+a+・・・+a+b   式(1)
 yは、イベント会場にいる者の人数の予測値を表す目的変数である。x~xは、説明変数である。a~aは、説明変数の係数である。bは定数項である。a~aおよびbの値は、予測式毎に(換言すれば、学習モデル毎に)、ステップS1で決定されている。
 図4では、「大型連休に該当するか否か」、「休日・祝日に該当するか否か」、「過去一週間の平均気温」および「過去一週間の来場者数」という4つの説明変数を例示している。説明を簡単にするため、これらの4つの変数に合わせて、式(1)においてn=4であるものとして説明する。すなわち、予測式が、y=a+a+a+a+bである場合を例にして説明する。
 「大型連休に該当するか否か」、「休日・祝日に該当するか否か」、「過去一週間の平均気温」および「過去一週間の来場者数」という各説明変数は、それぞれ予測式内の説明変数x~xのうちの1つに対応する。予測値算出部4は、ステップS2で選択された予測式内の各説明変数x~xに、予測用データ内の対応する説明変数の値を代入することによって、人数の予測値を算出する。
 なお、図4に例示した「大型連休に該当するか否か」、「休日・祝日に該当するか否か」、「過去一週間の平均気温」および「過去一週間の来場者数」という各説明変数の値は、いずれも数値である。このように、値が数値である説明変数に関しては、予測値算出部4は、その説明変数の値(数値)を、予測式内の対応する説明変数に代入すればよい。
 なお、説明変数が値として項目をとる場合がある。このような説明変数は、カテゴリ型変数と呼ばれる。なお、「大型連休に該当するか否か」、「休日・祝日に該当するか否か」は、カテゴリ型変数に該当するが、本実施形態では、「大型連休に該当するか否か」、「休日・祝日に該当するか否か」をそれぞれ“1”または“0”という数値で示す場合を例にしている。従って、「大型連休に該当するか否か」、「休日・祝日に該当するか否か」に関しては、その値を、x~xのうち対応する説明変数に代入すればよい。以下、値として数値をとらないカテゴリ型変数について説明する。そのようなカテゴリ型変数の例として、例えば、「曜日」がある。「曜日」を例にすると、カテゴリ型変数「曜日」は、「日曜日」、「月曜日」、・・・等の項目を値としてとる。
 1つのカテゴリ型変数の各値は、予測式内の説明変数x~xのうちの1つに対応する。例えば、カテゴリ型変数である「曜日」の取り得る各値(「日曜日」、「月曜日」等の各項目)は、それぞれ、予測式内の説明変数x~xのうちの1つに対応する。予測用データ内にカテゴリ型変数の値が含まれている場合、予測値算出部4は、そのカテゴリ型変数の各値に対応する予測式内の各説明変数に、二値(本例では、0と1とする。)のうちいずれかの値を代入する。例えば、予測用データ内に説明変数として「人数の予測対象日の曜日」が含まれ、その曜日の値が「月曜日」であるとする。この場合、予測値算出部4は、月曜日に対応する予測式内の説明変数に1を代入し、月曜日以外の各曜日に対応する予測式内の各説明変数に0を代入する。従って、カテゴリ型変数に該当する説明変数の値が予測用データに含まれている場合であっても、予測値算出部4は、人数の予測値を算出することができる。
 本発明によれば、所定の場所にいる者の人数を予測するための学習モデルを葉ノードとする選択モデルを木構造モデル生成部2が生成する。そして、学習モデル3は、与えられた予測用データに応じて、選択モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択する。さらに、予測値算出部4は、その学習モデルに予測用データを適用することによって、所定の場所にいる者の人数の予測値を算出する。従って、本発明によれば、所定の場所にいる者の人数を予測することができる。
 なお、データサイエンティストが学習用データに基づいて各学習モデルおよび選択モデルを生成し、学習モデル選択部3に各学習モデルおよび選択モデルを保持させてもよい。その場合、木構造モデル生成部2が設けられていなくてよく、人数予測システム1は、ステップS1を実行せずに、ステップS2,S3を実行すればよい。
 上記の実施形態では、所定の場所の例としてイベント会場を例示したが、人数の予測対象となる場所はイベント会場に限定されない。例えば、本発明の予測対象は、遊園地にいる者の人数、電車内にいる者の人数、空港にいる者の人数、小売店にいる者の人数、高速道路上にいる者の人数等であってもよい。
 また、本発明は、所定の時間に所定の場所にいる者の人数を予測対象としてもよい。この場合、学習用データには、所定の時間(例えば、15時等の特定の時間)に所定の場所にいる者の人数の実績値を含めておけばよい。そして、木構造モデル生成部2は、その学習用データを用いて、所定の時間に所定の場所にいる者の人数を予測するための学習モデルを葉ノードとする選択モデルを生成する。学習モデル選択部3の動作は、上記の実施形態で説明した動作と同様である。予測値算出部4は、学習モデル選択部3に選択された学習モデルに予測用データを適用することによって、所定の時間に所定の場所にいる者の人数の予測値を算出する。この場合、学習モデルの目的変数が上記の実施形態と異なっているが、木構造モデル生成部2や予測値算出部4の動作は、上記の実施形態で説明した動作と同様である。
 また、本発明は、所定の場所にいる所定の属性の者の人数を予測対象としてもよい。属性の例として、例えば、性別、年齢、国籍等が挙げられるが、所定の属性はこれらに限定されない。この場合、学習用データには、所定の場所にいる所定の属性の者(例えば、20代の者)の人数の実績値を含めておけばよい。そして、木構造モデル生成部2は、その学習用データを用いて、所定の場所にいる所定の属性の者の人数を予測するための学習モデルを葉ノードとする選択モデルを生成する。学習モデル選択部3の動作は、上記の実施形態で説明した動作と同様である。予測値算出部4は、学習モデル選択部3に選択された学習モデルに予測用データを適用することによって、所定の場所にいる所定の属性の者の人数の予測値を算出する。この場合、学習モデルの目的変数が上記の実施形態と異なっているが、木構造モデル生成部2や予測値算出部4の動作は、上記の実施形態で説明した動作と同様である。
 また、本発明は、所定の時間に所定の場所にいる所定の属性の者の人数を予測対象としてもよい。
 図6は、本発明の実施形態に係るコンピュータの構成例を示す概略ブロック図である。コンピュータ1000は、CPU1001と、主記憶装置1002と、補助記憶装置1003と、インタフェース1004と、入力デバイス1006とを備える。入力デバイス1006は、予測用データを入力するための入力インタフェースである。
 本発明の人数予測システム1は、コンピュータ1000に実装される。人数予測システム1の動作は、プログラムの形式で補助記憶装置1003に記憶されている。CPU1001は、プログラムを補助記憶装置1003から読み出して主記憶装置1002に展開し、そのプログラムに従って上記の処理を実行する。
 補助記憶装置1003は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例として、インタフェース1004を介して接続される磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等が挙げられる。また、このプログラムが通信回線によってコンピュータ1000に配信される場合、配信を受けたコンピュータ1000がそのプログラムを主記憶装置1002に展開し、上記の処理を実行してもよい。
 また、プログラムは、前述の処理の一部を実現するためのものであってもよい。さらに、プログラムは、補助記憶装置1003に既に記憶されている他のプログラムとの組み合わせで前述の処理を実現する差分プログラムであってもよい。
 次に、本発明の人数予測システムの概要を説明する。図7は、本発明の人数予測システムの概要を示すブロック図である。本発明の人数予測システムは、木構造モデル生成手段72と、学習モデル選択手段73と、予測値算出手段74とを備える。
 木構造モデル生成手段72(例えば、木構造モデル生成部2)は、予測用データから所定の場所にいる者の人数を予測するためのモデルである学習モデルを葉ノードとし、葉ノード以外のノードには予測用データに関する条件が定められた二分木の木構造モデル(例えば、選択モデル)を、学習用データを用いて生成する。
 学習モデル選択手段73(例えば、学習モデル選択部3)は、予測用データが入力されたときに、当該予測用データに応じて、木構造モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択する。
 予測値算出手段74(例えば、予測値算出部4)は、選択された学習モデルに予測用データを適用することによって、所定の場所にいる者の人数の予測値を算出する。
 そのような構成によって、所定の場所にいる者の人数を予測することができる。
 また、木構造モデル生成手段72が、所定の時間に所定の場所にいる者の人数を予測するための学習モデルを葉ノードとする木構造モデルを生成し、予測値算出手段74が、選択された学習モデルに予測用データを適用することによって、所定の時間に所定の場所にいる者の人数の予測値を算出してもよい。
 また、木構造モデル生成手段72が、所定の場所にいる所定の属性の者の人数を予測するための学習モデルを葉ノードとする木構造モデルを生成し、予測値算出手段74が、選択された学習モデルに予測用データを適用することによって、所定の場所にいる所定の属性の者の人数の予測値を算出してもよい。
 また、木構造モデル生成手段72が、イベント会場にいる者の人数を予測するための学習モデルを葉ノードとする木構造モデルを生成し、予測値算出手段74が、選択された学習モデルに予測用データを適用することによって、イベント会場にいる者の人数の予測値を算出してもよい。
 また、木構造モデル生成手段72が、隠れ変数が木構造で表され、当該木構造の葉ノードに確率モデルを表す学習モデルが配された構造である階層隠れ構造を設定し、学習用データと学習モデルとに基づいて、階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算し、学習用データに基づいて、算出した変分確率に対して学習モデルを最適化し、階層隠れ構造のノードに定められる条件を、当該ノードにおける隠れ変数の変分確率に基づいて最適化することによって、木構造モデルを生成してもよい。
産業上の利用の可能性
 本発明は、所定の場所にいる者の人数を予測する人数予測システムに好適に適用される。
 1 人数予測システム
 2 木構造モデル生成部
 3 学習モデル選択部
4 予測値算出部

Claims (7)

  1.  予測用データから所定の場所にいる者の人数を予測するためのモデルである学習モデルを葉ノードとし、葉ノード以外のノードには予測用データに関する条件が定められた二分木の木構造モデルを、学習用データを用いて生成する木構造モデル生成手段と、
     予測用データが入力されたときに、当該予測用データに応じて、前記木構造モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択する学習モデル選択手段と、
     選択された学習モデルに前記予測用データを適用することによって、前記所定の場所にいる者の人数の予測値を算出する予測値算出手段とを備える
     ことを特徴とする人数予測システム。
  2.  木構造モデル生成手段は、所定の時間に所定の場所にいる者の人数を予測するための学習モデルを葉ノードとする木構造モデルを生成し、
     予測値算出手段は、選択された学習モデルに予測用データを適用することによって、前記所定の時間に前記所定の場所にいる者の人数の予測値を算出する
     請求項1に記載の人数予測システム。
  3.  木構造モデル生成手段は、所定の場所にいる所定の属性の者の人数を予測するための学習モデルを葉ノードとする木構造モデルを生成し、
     予測値算出手段は、選択された学習モデルに予測用データを適用することによって、前記所定の場所にいる前記所定の属性の者の人数の予測値を算出する
     請求項1または請求項2に記載の人数予測システム。
  4.  木構造モデル生成手段は、イベント会場にいる者の人数を予測するための学習モデルを葉ノードとする木構造モデルを生成し、
     予測値算出手段は、選択された学習モデルに予測用データを適用することによって、前記イベント会場にいる者の人数の予測値を算出する
     請求項1から請求項3のうちのいずれか1項に記載の人数予測システム。
  5.  木構造モデル生成手段は、隠れ変数が木構造で表され、当該木構造の葉ノードに確率モデルを表す学習モデルが配された構造である階層隠れ構造を設定し、学習用データと前記学習モデルとに基づいて、前記階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算し、前記学習用データに基づいて、算出した変分確率に対して前記学習モデルを最適化し、前記階層隠れ構造のノードに定められる条件を、当該ノードにおける隠れ変数の変分確率に基づいて最適化することによって、木構造モデルを生成する
     請求項1から請求項4のうちのいずれか1項に記載の人数予測システム。
  6.  予測用データから所定の場所にいる者の人数を予測するためのモデルである学習モデルを葉ノードとし、葉ノード以外のノードには予測用データに関する条件が定められた二分木の木構造モデルを、学習用データを用いて生成し、
     予測用データが入力されたときに、当該予測用データに応じて、前記木構造モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択し、
     選択した学習モデルに前記予測用データを適用することによって、前記所定の場所にいる者の人数の予測値を算出する
     ことを特徴とする人数予測方法。
  7.  コンピュータに、
     予測用データから所定の場所にいる者の人数を予測するためのモデルである学習モデルを葉ノードとし、葉ノード以外のノードには予測用データに関する条件が定められた二分木の木構造モデルを、学習用データを用いて生成する木構造モデル生成処理、
     予測用データが入力されたときに、当該予測用データに応じて、前記木構造モデルの個々の葉ノードが示す学習モデルの中から1つの学習モデルを選択する学習モデル選択処理、および、
     選択された学習モデルに前記予測用データを適用することによって、前記所定の場所にいる者の人数の予測値を算出する予測値算出処理
     を実行させるための人数予測プログラム。
PCT/JP2015/001744 2015-03-26 2015-03-26 人数予測システム、人数予測方法および人数予測プログラム WO2016151639A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017507116A JP6414321B2 (ja) 2015-03-26 2015-03-26 人数予測システム、人数予測方法および人数予測プログラム
PCT/JP2015/001744 WO2016151639A1 (ja) 2015-03-26 2015-03-26 人数予測システム、人数予測方法および人数予測プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/001744 WO2016151639A1 (ja) 2015-03-26 2015-03-26 人数予測システム、人数予測方法および人数予測プログラム

Publications (1)

Publication Number Publication Date
WO2016151639A1 true WO2016151639A1 (ja) 2016-09-29

Family

ID=56978476

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/001744 WO2016151639A1 (ja) 2015-03-26 2015-03-26 人数予測システム、人数予測方法および人数予測プログラム

Country Status (2)

Country Link
JP (1) JP6414321B2 (ja)
WO (1) WO2016151639A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021214936A1 (ja) * 2020-04-23 2021-10-28 日本電気株式会社 予測装置、予測方法、及び、記録媒体
JP2022061192A (ja) * 2020-10-06 2022-04-18 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024350A (ja) * 2000-07-03 2002-01-25 Kasumi Co Ltd 小売店舗管理システム
JP2004157814A (ja) * 2002-11-07 2004-06-03 Fuji Electric Holdings Co Ltd 決定木生成方法およびモデル構造生成装置
JP2007265317A (ja) * 2006-03-30 2007-10-11 Hitachi Ltd 来場人数予測方法及びシステム
JP2014160345A (ja) * 2013-02-19 2014-09-04 Nippon Telegr & Teleph Corp <Ntt> 閲覧行動予測装置、閲覧行動学習装置、閲覧行動予測方法、閲覧行動学習方法及びプログラム
JP2014182520A (ja) * 2013-03-18 2014-09-29 Fujitsu Ltd 情報処理プログラム、情報処理方法および情報処理装置
JP2015033203A (ja) * 2013-08-01 2015-02-16 富士電機株式会社 類似日抽出装置、類似日抽出方法、プログラム
JP2015041121A (ja) * 2013-08-20 2015-03-02 株式会社日立製作所 販売予測システム及び販売予測方法
WO2015040790A1 (ja) * 2013-09-20 2015-03-26 日本電気株式会社 払出量予測装置、払出量予測方法、記録媒体、及び払出量予測システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024350A (ja) * 2000-07-03 2002-01-25 Kasumi Co Ltd 小売店舗管理システム
JP2004157814A (ja) * 2002-11-07 2004-06-03 Fuji Electric Holdings Co Ltd 決定木生成方法およびモデル構造生成装置
JP2007265317A (ja) * 2006-03-30 2007-10-11 Hitachi Ltd 来場人数予測方法及びシステム
JP2014160345A (ja) * 2013-02-19 2014-09-04 Nippon Telegr & Teleph Corp <Ntt> 閲覧行動予測装置、閲覧行動学習装置、閲覧行動予測方法、閲覧行動学習方法及びプログラム
JP2014182520A (ja) * 2013-03-18 2014-09-29 Fujitsu Ltd 情報処理プログラム、情報処理方法および情報処理装置
JP2015033203A (ja) * 2013-08-01 2015-02-16 富士電機株式会社 類似日抽出装置、類似日抽出方法、プログラム
JP2015041121A (ja) * 2013-08-20 2015-03-02 株式会社日立製作所 販売予測システム及び販売予測方法
WO2015040790A1 (ja) * 2013-09-20 2015-03-26 日本電気株式会社 払出量予測装置、払出量予測方法、記録媒体、及び払出量予測システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021214936A1 (ja) * 2020-04-23 2021-10-28 日本電気株式会社 予測装置、予測方法、及び、記録媒体
JP7439914B2 (ja) 2020-04-23 2024-02-28 日本電気株式会社 予測装置、予測方法、及び、プログラム
JP2022061192A (ja) * 2020-10-06 2022-04-18 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP7387573B2 (ja) 2020-10-06 2023-11-28 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP6414321B2 (ja) 2018-10-31
JPWO2016151639A1 (ja) 2017-10-26

Similar Documents

Publication Publication Date Title
JP6384590B2 (ja) 学習モデル生成システム、方法およびプログラム
Xia et al. A hybrid genetic algorithm with variable neighborhood search for dynamic integrated process planning and scheduling
US20220027817A1 (en) Deep reinforcement learning for production scheduling
US20150254554A1 (en) Information processing device and learning method
JP6565185B2 (ja) 最適化システム、最適化方法および最適化プログラム
US7712072B2 (en) Optimizing inventory in accordance with a constrained network
JP7271216B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Allahverdi et al. Single machine scheduling problem with interval processing times to minimize mean weighted completion time
Marufuzzaman et al. A Benders based rolling horizon algorithm for a dynamic facility location problem
US20170039470A1 (en) Factor extraction system and factor extraction method
Mohammadi et al. Genetic algorithm-based heuristic for capacitated lotsizing problem in flow shops with sequence-dependent setups
Hao et al. An effective multi-objective EDA for robust resource constrained project scheduling with uncertain durations
JP2020187417A (ja) 物性予測装置及び物性予測方法
JP5803469B2 (ja) 予測方法及び予測プログラム
US20170147985A1 (en) Predicting an outcome of the execution of a schedule
WO2016151639A1 (ja) 人数予測システム、人数予測方法および人数予測プログラム
US20220269835A1 (en) Resource prediction system for executing machine learning models
CN116157812A (zh) 系统范围的工厂优化的优化模型的自动生成
JP6536157B2 (ja) モデル推定システム、モデル推定方法およびモデル推定プログラム
WO2019167656A1 (ja) 予測システム、予測方法、およびプログラム
Hannah et al. Semiconvex regression for metamodeling-based optimization
JP7235246B2 (ja) 情報処理装置、方法、プログラム、icチップ及び学習済モデル
JP6803053B1 (ja) 情報処理装置、方法、およびプログラム
JP6925179B2 (ja) 解探索処理装置
JPWO2011016281A1 (ja) ベイジアンネットワーク構造学習のための情報処理装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15886196

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017507116

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15886196

Country of ref document: EP

Kind code of ref document: A1