WO2016009599A1 - Cm計画支援システムおよび売上予測支援システム - Google Patents

Cm計画支援システムおよび売上予測支援システム Download PDF

Info

Publication number
WO2016009599A1
WO2016009599A1 PCT/JP2015/003221 JP2015003221W WO2016009599A1 WO 2016009599 A1 WO2016009599 A1 WO 2016009599A1 JP 2015003221 W JP2015003221 W JP 2015003221W WO 2016009599 A1 WO2016009599 A1 WO 2016009599A1
Authority
WO
WIPO (PCT)
Prior art keywords
sales
prediction
component
exposure pattern
unit
Prior art date
Application number
PCT/JP2015/003221
Other languages
English (en)
French (fr)
Inventor
幸貴 楠村
弘紀 水口
遼平 藤巻
森永 聡
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP15821580.6A priority Critical patent/EP3171321A4/en
Priority to US15/326,273 priority patent/US11188946B2/en
Priority to JP2016534100A priority patent/JP6477703B2/ja
Publication of WO2016009599A1 publication Critical patent/WO2016009599A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0264Targeted advertisements based upon schedule
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0202Market predictions or forecasting for commercial activities

Definitions

  • the present invention relates to a CM plan support system, a CM plan support method and a CM plan support program for predicting sales based on a CM plan, and a sales prediction support system, a sales prediction support method, and a sales prediction support program.
  • Patent Document 1 describes a sales promotion plan support system for predicting the sales amount.
  • the sales promotion plan support system described in Patent Document 1 calculates a cross-correlation coefficient between the number of orders received or sales amount of a customer in a desired sales period and the execution quantity for each sales promotion means executed in a desired sales promotion period. calculate.
  • Non-Patent Document 1 determines the type of observation probability by approximating a complete marginal likelihood function and maximizing its lower bound (lower limit) for a mixed model that is a typical example of a hidden variable model. A method is described.
  • Non-Patent Document 1 By using the method described in Non-Patent Document 1, it is possible to determine the type of observation probability that affects sales. However, in the case of the method described in Non-Patent Document 1, there is a technical problem that the model selection problem of a model including a hierarchical hidden variable cannot be solved. The reason is that the method described in Non-Patent Document 1 does not take into account the hierarchical hidden variables, and therefore it is obvious that a calculation procedure cannot be constructed. In addition, the method described in Non-Patent Document 1 is based on a strong assumption that it cannot be applied when there is a hierarchical hidden variable, and thus loses theoretical validity when this method is simply applied. Because it will end up.
  • An object of the present invention is to provide a CM plan support system, a CM plan support method, a CM plan support program, a sales forecast support system, a sales forecast support method, and a sales forecast support program that solve the above-described problems.
  • a CM plan support system includes a prediction data input unit that inputs prediction data that is one or more explanatory variables that are information that may affect future sales, and a prediction target time point from a prediction execution time point to a future prediction target time point.
  • the exposure pattern generation unit that generates an exposure pattern, which is an explanatory variable indicating the contents of the CM scheduled to be implemented, and the hidden variable is represented by a tree structure, and the component that represents the probability model at the lowest layer node of the tree structure
  • Component determination that determines the component to be used for forecasting sales based on the hierarchical hidden structure, the gate function that determines the branch direction at the node of the hierarchical hidden structure, the forecasting data, and the exposure pattern Sales forecast based on the sales department, the component determined by the component determination unit, the forecast data and the exposure pattern Characterized by comprising and.
  • the CM plan support method inputs prediction data, which is one or more explanatory variables that are information that may affect future sales, and is scheduled to be implemented between the prediction execution time and the future prediction target time.
  • An exposure pattern that is an explanatory variable indicating the content of CM of the above is generated, a hidden variable is represented by a tree structure, and a hierarchical hidden structure that is a structure in which a component representing a probability model is arranged at a lowermost node of the tree structure;
  • the prediction data and the exposure pattern Based on the gate function that determines the branching direction in the node of the hierarchical hidden structure, the prediction data and the exposure pattern, the component used for the sales prediction is determined, and the determined component, the prediction data and the exposure pattern are determined. Based on the above, sales are predicted.
  • the CM plan support program is a prediction data input process for inputting prediction data, which is one or more explanatory variables that are information that may affect future sales, to a computer.
  • An exposure pattern generation process for generating an exposure pattern, which is an explanatory variable indicating the contents of a CM scheduled to be implemented until the target time point, a hidden variable is represented by a tree structure, and a probability model is represented at the lowest layer node of the tree structure
  • a component that determines the component to be used for forecasting sales based on the hierarchical hidden structure, which is a structure in which components are arranged, the gate function that determines the branching direction at the node of the hierarchical hidden structure, and the forecast data and exposure pattern Based on the determination process, the component determined by the component determination process, the prediction data, and the exposure pattern There are, characterized in that to perform the forecast process for predicting sales.
  • a sales prediction support system is a learning data input unit that inputs learning data that is a combination of an objective variable indicating future sales and one or more explanatory variables that are information that can affect the sales.
  • Hidden variables are expressed in a tree structure, and a hierarchical hidden structure setting unit that sets a hierarchical hidden structure that is a structure in which a component representing a probability model is arranged at the lowest node of the tree structure, and a learning data input unit
  • a variation probability calculation unit for calculating a variation probability of a path hidden variable that is a hidden variable included in a path connecting from a root node to a target node in a hierarchical hidden structure based on learning data and components input by
  • a component optimization processing unit that optimizes the component with respect to the calculated variation probability based on the learning data input by the learning data input unit;
  • a gate function optimization unit that optimizes a gate function model, which is a model that determines a branching direction according to an explanatory variable, in a node of a hierarch
  • Component determination that determines the component to be used for sales prediction among the components optimized by the component optimization processing unit based on the gate function optimized by the gate function optimization unit, the prediction data and the exposure pattern Sales are forecasted based on the component, the component determined by the component determination unit, the prediction data, and the exposure pattern Characterized by comprising an upper prediction unit.
  • the sales prediction support method inputs learning data that is a combination of an objective variable indicating future sales and one or more explanatory variables that are information that can affect the sales, and the hidden variable is a tree.
  • a hierarchical hidden structure which is a structure represented by a structure in which a component representing a probabilistic model is arranged at the lowest node of the tree structure, is set in the hierarchical hidden structure based on the input learning data and components.
  • the gate function model which is a model that determines the branching direction according to the explanatory variable at the node of the hierarchical hidden structure, is based on the variation probability of the hidden variable at that node.
  • the component to be used for forecasting sales is determined, and the determined component, forecasting data and exposure pattern are determined. Based on this, sales are predicted.
  • a sales prediction support program is for learning to input learning data that is a combination of an objective variable indicating future sales and one or more explanatory variables that are information that can affect the sales to a computer.
  • Hierarchical hidden structure setting process, data input process, hidden variable is represented by a tree structure, hierarchy hidden structure setting process, which is a structure in which the component representing the probability model is arranged at the lowest node of the tree structure, data input for learning
  • a variation probability calculation that calculates the variation probability of a hidden path variable that is a hidden variable in the path that connects the root node to the target node in the hierarchical hidden structure based on the learning data and components input in the processing
  • Processing and learning data input processing based on the learning data input a component that optimizes the component for the calculated variation probability Component optimization processing, gate function optimization processing that optimizes the gate function model, which is a model that determines the branch direction according to the explanatory variable in the node of the hierarchical hidden structure, based on the variation probability of the hidden variable in that node,
  • a hierarchical hidden variable model is a hidden variable (ie, hierarchical structure) having a tree structure.
  • Components that are probabilistic models are arranged at the lowest layer nodes of the tree structure.
  • Each branch node is provided with a gate function that distributes branches according to inputs.
  • the hierarchical hidden variable model having a depth of 2 will be specifically described.
  • the route from the root node to a certain node is determined as one.
  • a route (link) when connecting from a root node to a certain node in a hierarchical hidden structure is referred to as a route.
  • the path hidden variable is determined by tracing the hidden variable for each path. For example, the lowest layer route hidden variable indicates a route hidden variable determined for each route from the root node to the lowest layer node.
  • the data string xn may be referred to as an observation variable.
  • i n , and a lowermost layer path hidden variable z ij n are defined for the observation variable x n .
  • i n 0 represents the first layer i-node X n input to the second node does not branch to the second layer j-th node.
  • Equation 1 The simultaneous distribution of hierarchical hidden variable models with depth 2 for complete variables is expressed by Equation 1 below.
  • the representative value of z i n a z 1st n, z j
  • the variation distribution for the first layer branch hidden variable z i n is q (z i n )
  • the variation distribution for the lowest layer path hidden variable z ij n is q (z ij n ).
  • K 1 represents the number of nodes in the first layer
  • K 2 represents the number of nodes branched from each node in the first layer.
  • the lowest layer component is represented by K 1 ⁇ K 2 .
  • ( ⁇ , ⁇ 1,..., ⁇ K 1 , ⁇ 1,..., ⁇ K 1 ⁇ K 2 ) represents the model parameters.
  • is a branch parameter of the root node
  • ⁇ k is a branch parameter of the first layer k-th node
  • ⁇ k is an observation parameter for the k-th component.
  • S1, ⁇ , SK 1 ⁇ K 2 is a representative of the kind of observation probability corresponding to .phi.k.
  • candidates that can be S1 to SK 1 ⁇ K 2 are ⁇ normal distribution, lognormal distribution, exponential distribution ⁇ and the like.
  • candidates that can be S1 to SK 1 ⁇ K 2 are ⁇ 0th order curve, 1st order curve, 2nd order curve, 3rd order curve ⁇ and the like.
  • the hierarchical hidden variable model according to at least one embodiment is not limited to the hierarchical hidden variable model having a depth of 2, and may be a hierarchical hidden variable model having a depth of 1 or 3 or more.
  • Equation 1 shown above and Equations 2 to 4 described later may be derived, and the prediction device is realized with the same configuration.
  • the distribution when the target variable is X will be described.
  • the present invention can also be applied to a case where the observation distribution is a conditional model P (Y
  • Non-Patent Document 1 In the method described in Non-Patent Document 1, a general mixed model in which hidden variables are used as indicators of each component is assumed, and an optimization criterion is derived as shown in Equation 10 of Non-Patent Document 1.
  • the Fisher information matrix is given in the form of Equation 6 of Non-Patent Document 1
  • the probability distribution of the hidden variable that is an indicator of the component is the mixing ratio of the mixing model. It is assumed that it depends only on. Therefore, switching of components according to input cannot be realized, and this optimization criterion is not appropriate.
  • FIG. 1 is a block diagram illustrating a configuration example of a sales prediction support system according to at least one embodiment.
  • the sales prediction support system 10 includes a hierarchical hidden variable model estimation device 100, a learning database 300, a model database 500, and a sales prediction device 700.
  • the sales prediction support system 10 generates a model used for sales prediction based on sales information collected in the past, information expected to affect sales, and the like, and supports sales prediction using the model.
  • the hierarchical hidden variable model estimation device 100 estimates a model for predicting future sales using the data stored in the learning database 300 and records the model in the model database 500.
  • FIG. 2 is a diagram illustrating an example of information stored in the learning database 300 according to at least one embodiment.
  • the learning database 300 stores sales information, metadata related to information transmission using an advertising medium, information transmitted using social media, and the like.
  • the learning database 300 may store a product table including data related to a product for which sales are predicted. As illustrated in FIG. 2A, the product table stores a product name, a product category, a product classification, a sales start date and time, a fixed price, and the like in association with the product ID.
  • the product ID is information for uniquely identifying the product.
  • the learning database 300 may store a weather table including data on weather. As illustrated in FIG. 2B, the weather table stores the temperature, the highest temperature of the day, the lowest temperature of the day, the precipitation, the weather, the humidity, and the like in association with the date and the region.
  • the learning database 300 may store a sales table including data related to sales of products. As illustrated in FIG. 2C, the sales table stores the number of sales and the sales amount for each period of the product in association with each product ID.
  • the unit of the storage period is arbitrary, and may be, for example, a time unit or a day unit. In this case, for example, when total sales for one week are required, the total sales for one week can be calculated by adding the sales for the target period.
  • the contents of the sales table are not limited to sales within a certain period, and may be, for example, differences between periods to be compared. Similarly to the case described above, the difference between the periods to be compared can also be acquired by adding the sales in the periods to be compared and taking the difference.
  • the learning database 300 may store an advertisement medium metadata table including metadata related to information transmission using various advertisement media such as television broadcasting and the Internet.
  • FIG. 2D is an explanatory diagram illustrating an example of metadata when a television (hereinafter referred to as TV) is used as an advertising medium.
  • the advertisement medium metadata table stores the exposure time of the transmission information for each predetermined period in association with the product ID, the classification, the transmission content, and the like.
  • the advertisement medium metadata table may store the CM broadcast time including the target keyword, the exposure time of the program by category (CM), the exposure time by time zone, and the like.
  • the advertisement medium metadata table may total these pieces of information in accordance with the sales period totaled in the sales table illustrated in FIG.
  • the learning database 300 may store a transmission information table including information transmitted using social media.
  • FIG. 2E is an explanatory diagram illustrating an example of information transmitted using Twitter (registered trademark) on social media.
  • the transmission information table stores similar keywords grouped together.
  • the information illustrated in FIG. 2 (E) uses a topic extraction engine to generate a predetermined number of clusters based on each keyword transmitted using Twitter, and lists the words included in the clusters.
  • the topic extraction engine is a module that automatically collects words using a statistical model based on the idea that words having similar meanings appear in similar documents.
  • the model database 500 stores a model for predicting future sales estimated by the hierarchical hidden variable model estimation apparatus 100.
  • the model database 500 is configured by a tangible medium that is not temporary, such as a hard disk drive or a solid state drive.
  • the sales prediction device 700 receives data related to the sales of the product, and predicts future sales based on the data and the model stored in the model database 500.
  • FIG. 3 is a block diagram illustrating a configuration example of the hierarchical hidden variable model estimation device according to at least one embodiment.
  • the hierarchical hidden variable model estimation device 100 of the present embodiment includes a data input device 101, a hierarchical hidden structure setting unit 102, an initialization processing unit 103, a hierarchical hidden variable variation probability calculation processing unit 104, and a component optimization process.
  • the hierarchical hidden variable model estimation apparatus 100 optimizes the hierarchical hidden structure and the type of observation probability for the input data 111.
  • the optimized result is output as the model estimation result 112 and recorded in the model database 500.
  • the input data 111 is an example of learning data.
  • FIG. 4 is a block diagram illustrating a configuration example of the hierarchical hidden variable variation probability calculation processing unit 104 according to at least one embodiment.
  • the hierarchical hidden variable variation probability calculation processing unit 104 includes a lowermost layer path hidden variable variation probability calculation processing unit 104-1, a hierarchy setting unit 104-2, an upper layer path hidden variable variation probability calculation processing unit 104-3, A hierarchy calculation end determination processing unit 104-4.
  • the hierarchical hidden variable variation probability calculation processing unit 104 calculates the hierarchical hidden variable variation probability 104-6. Output. A detailed description of the hierarchical hidden variable variation probability calculation processing unit 104 will be described later.
  • the component in the present embodiment is a value indicating the weight associated with each explanatory variable.
  • the sales prediction device 700 can obtain the objective variable by calculating the sum of the explanatory variables multiplied by the weight indicated by the component.
  • FIG. 5 is a block diagram illustrating a configuration example of the gate function optimization processing unit 106 according to at least one embodiment.
  • the gate function optimization processing unit 106 includes a branch node information acquisition unit 106-1, a branch node selection processing unit 106-2, a branch parameter optimization processing unit 106-3, and an all branch node optimization end determination processing unit 106. -4.
  • the gate function optimization processing unit 106 is input by the input data 111, the hierarchical hidden variable variation probability 104-6 calculated by the hierarchical hidden variable variation probability calculation processing unit 104 described later, and the component optimization processing unit 105.
  • the gate function model 106-6 is output.
  • the gate function in the present embodiment is a function for determining whether information included in the input data 111 satisfies a predetermined condition.
  • the gate function is provided corresponding to the internal node of the hierarchical hidden structure. When the sales forecasting device 700 traces a node having a hierarchical hidden structure, the sales forecasting device 700 determines the next node to be traced according to the gate function determination result.
  • the data input device 101 is a device for inputting the input data 111. Based on the data recorded in the sales table of the learning database 300, the data input device 101 generates an objective variable indicating the known sales of the product for a predetermined period (for example, one day or one week). Examples of the objective variable include the number of sales of one product in one store per predetermined time range, the number of sales of one product in all stores in a predetermined time range, and the predetermined time of all products in one store Sales amount for each range can be adopted.
  • the data input device 101 uses the data recorded in each table of the learning database 300 (for example, a product table, a weather table, a sales table, an advertisement medium metadata table, a transmission information table) for each objective variable.
  • One or more explanatory variables that are information that can affect the objective variable are generated.
  • the explanatory variable for example, the number of exposures of the transmission content, the exposure time, the difference in the exposure time for each period of the transmission content, the past sales amount of the target product, and the like can be employed.
  • the data input device 101 inputs a plurality of combinations of objective variables and explanatory variables as input data 111.
  • the data input device 101 simultaneously inputs parameters necessary for model estimation, such as the type of observation probability and the number of components.
  • the data input device 101 is an example of a learning data input unit.
  • the hierarchical hidden structure setting unit 102 selects and sets the structure of the hierarchical hidden variable model that is a candidate for optimization from the input types of observation probability and the number of components.
  • the hidden structure used in this embodiment is a tree structure. In the following, it is assumed that the set number of components is represented as C, and the mathematical formula used in the description is for a hierarchical hidden variable model having a depth of 2.
  • the hidden layer structure setting unit 102 may store the structure of the selected hidden layer variable model in an internal memory.
  • the hierarchical hidden structure setting unit 102 includes two first hierarchical nodes and second hierarchical nodes. (In this embodiment, the lowest layer node) selects four hierarchical hidden structures.
  • the initialization processing unit 103 performs an initialization process for estimating the hierarchical hidden variable model.
  • the initialization processing unit 103 can execute initialization processing by an arbitrary method. For example, the initialization processing unit 103 may set the type of observation probability at random for each component, and set the parameter of each observation probability at random according to the set type. Moreover, the initialization process part 103 may set the lowest layer path variation probability of a hierarchy hidden variable at random.
  • the hierarchy hidden variable variation probability calculation processing unit 104 calculates the variation probability of the path hidden variable for each hierarchy.
  • the parameter ⁇ is calculated by the initialization processing unit 103 or the component optimization processing unit 105 and the gate function optimization processing unit 106. Therefore, the hierarchical hidden variable variation probability calculation processing unit 104 calculates the variation probability using the value.
  • the hierarchical hidden variable variation probability calculation processing unit 104 performs Laplace approximation on the marginal log likelihood function with respect to the estimator (for example, maximum likelihood estimator and maximum posterior probability estimator) for the complete variable, and maximizes its lower bound To calculate the variation probability.
  • the estimator for example, maximum likelihood estimator and maximum posterior probability estimator
  • the variation probability calculated in this way is referred to as an optimization criterion A.
  • Equation 2 The procedure for calculating the optimization criterion A will be described using a hierarchical hidden variable model with a depth of 2 as an example.
  • the marginalized log likelihood is expressed by Equation 2 shown below.
  • Equation 2 the equal sign is established by maximizing the bottom layer path hidden variable variation probability q (z n ).
  • Equation 3 an approximate expression of the marginal log-likelihood function shown in Equation 3 below is obtained.
  • Equation 3 the superscript bar represents the maximum likelihood estimator for the complete variable, and D * represents the dimension of the subscript parameter *.
  • Equation 4 the lower bound of Equation 3 is calculated as shown in Equation 4 below.
  • the variation distribution q ′ of the first layer branch hidden variable and the variation distribution q ′′ of the bottom layer path hidden variable are obtained by maximizing Equation 4 for each variation distribution.
  • the superscript (t) indicates the t-th iteration in the iterative calculation of the hierarchical hidden variable variation probability calculation processing unit 104, the component optimization processing unit 105, the gate function optimization processing unit 106, and the optimality determination processing unit 107. To express.
  • the lowest layer path hidden variable variation probability calculation processing unit 104-1 receives the input data 111 and the estimated model 104-5, and calculates the lowest layer hidden variable variation probability q (z N ).
  • the hierarchy setting unit 104-2 sets that the target for calculating the variation probability is the lowest layer.
  • the lowest layer path hidden variable variation probability calculation processing unit 104-1 calculates the variation probability of each estimation model 104-5 for each combination of the objective variable and the explanatory variable of the input data 111.
  • the variation probability is calculated by comparing the solution obtained by substituting the explanatory variable of the input data 111 into the estimation model 104-5 and the objective variable of the input data 111.
  • the upper layer path hidden variable variation probability calculation processing unit 104-3 calculates the path hidden variable variation probability of the upper layer. Specifically, the upper layer path hidden variable variation probability calculation processing unit 104-3 calculates the sum of hidden variable variation probabilities of the current layer having the same branch node as a parent, and calculates the value one layer higher. The path hidden variable variation probability of.
  • the hierarchy calculation end determination processing unit 104-4 determines whether or not the layer for calculating the variation probability still exists. When it is determined that an upper layer exists, the hierarchy setting unit 104-2 sets the upper layer as a target for calculating the variation probability. Thereafter, the upper layer path hidden variable variation probability calculation processing unit 104-3 and the hierarchy calculation end determination processing unit 104-4 repeat the above-described processing. On the other hand, when it is determined that there is no upper layer, the hierarchy calculation end determination processing unit 104-4 determines that the path hidden variable variation probability is calculated for all the layers.
  • the component optimization processing unit 105 optimizes the model (parameter ⁇ and its type S) of each component with respect to the above equation 4, and outputs an optimized estimation model 104-5.
  • the component optimization processing unit 105 converts q and q ′′ to the lowest layer path hidden variable variation probability q ( calculated by the hierarchical hidden variable variation probability calculation processing unit 104. t) , and q ′ is fixed to the upper-layer path hidden variable variation probability shown in Equation A above. Then, the component optimization processing unit 105 calculates a model that maximizes the value of G shown in Equation 4.
  • Equation 4 can decompose the optimization function for each component. Therefore, S1 to SK 1 and K 2 and parameters ⁇ 1 to ⁇ K 1 and K 2 are separately set without considering the combination of component types (for example, which type of S1 to SK 1 and K 2 is specified). Can be optimized. The point that can be optimized in this way is an important point in this processing. Thereby, it is possible to avoid the combination explosion and optimize the component type.
  • the branch node information acquisition unit 106-1 extracts a branch node list using the estimation model 104-5 estimated by the component optimization processing unit 105.
  • the branch node selection processing unit 106-2 selects one branch node from the extracted list of branch nodes.
  • the selected node may be referred to as a selected node.
  • the branch parameter optimization processing unit 106-3 optimizes the branch parameter of the selected node using the input data 111 and the hidden variable variation probability regarding the selected node obtained from the hierarchical hidden variable variation probability 104-6. .
  • the branch parameter of the selected node corresponds to the gate function described above.
  • the all branch node optimization end determination processing unit 106-4 determines whether all the branch nodes extracted by the branch node information acquisition unit 106-1 have been optimized. When all the branch nodes are optimized, the gate function optimization processing unit 106 ends the processing here. On the other hand, when all the branch nodes are not optimized, the process by the branch node selection processing unit 106-2 is performed. Thereafter, the branch parameter optimization processing unit 106-3 and the all branch node optimization end determination processing unit 106 are performed. The process according to -4 is similarly performed.
  • a gate function based on the Bernoulli distribution may be referred to as a Bernoulli type gate function.
  • the first d-dimensional x and x d the probability of branching to the lower left binary tree when the threshold is not exceeded w that has this value g - and then, to the lower left of the binary tree when exceeding the threshold value w Let the probability of branching be g + .
  • the branch parameter optimization processing unit 106-3 optimizes the optimization parameters d, w, g ⁇ and g + based on the Bernoulli distribution. This is different from the one based on the logit function described in Non-Patent Document 1, and since each parameter has an analytical solution, optimization at a higher speed is possible.
  • the optimality determination processing unit 107 determines whether or not the optimization criterion A calculated using Expression 4 has converged. If not converged, the processing by the hierarchical hidden variable variation probability calculation processing unit 104, the component optimization processing unit 105, the gate function optimization processing unit 106, and the optimality determination processing unit 107 is repeated. The optimality determination processing unit 107 may determine that the optimization criterion A has converged, for example, when the increment of the optimization criterion A is less than a predetermined threshold.
  • the processes performed by the hierarchical hidden variable variation probability calculation processing unit 104, the component optimization processing unit 105, the gate function optimization processing unit 106, and the optimality determination processing unit 107 are combined into a hierarchical hidden variable variation probability calculation processing unit 104.
  • An appropriate model can be selected by repeating the processing by the optimality determination processing unit 107 from the hierarchical hidden variable variation probability calculation processing unit 104 and updating the variation distribution and model. By repeating these processes, it is guaranteed that the optimization criterion A increases monotonously.
  • the optimal model selection processing unit 108 selects an optimal model. Specifically, the optimization criterion A calculated by the optimality determination processing unit 107 from the hierarchical hidden variable variation probability calculation processing unit 104 for the hidden state number C set by the hierarchical hidden structure setting unit 102. Is larger than the currently set optimization criterion A, the optimum model selection processing unit 108 selects the model as the optimum model.
  • the model estimation result output device 109 displays the optimum number of hidden states and observation probability. Type, parameters, variation distribution, etc. are output as model estimation results 112.
  • the process is transferred to the hierarchical hidden structure setting unit 102, and the above-described process is performed in the same manner.
  • the processing unit 107 and the optimum model selection processing unit 108 are realized by a CPU of a computer that operates according to a program (sales prediction support program).
  • the program is stored in a storage unit (not shown) of the hierarchical hidden variable model estimation apparatus 100, and the CPU reads the program, and according to the program, the hierarchical hidden structure setting unit 102, the initialization processing unit 103, the hierarchical hidden unit Variable variation probability calculation processing unit 104 (more specifically, the lowest layer path hidden variable variation probability calculation processing unit 104-1, the hierarchy setting unit 104-2, and the upper layer path hidden variable variation probability calculation processing unit 104-3 Hierarchical calculation end determination processing unit 104-4), component optimization processing unit 105, gate function optimization processing unit 106 (more specifically, branch node information acquisition unit 106-1 and branch node selection processing unit 106-2) Branch parameter optimization processing unit 106-3, all branch node optimization end determination processing unit 106-4), optimality determination processing unit 107, and optimal model It may operate as-option processing section 108.
  • the hierarchical hidden structure setting unit 102 the initialization processing unit 103
  • the hierarchical hidden unit Variable variation probability calculation processing unit 104 more specifically, the lowest layer path hidden variable variation probability calculation
  • the hierarchical hidden structure setting unit 102, the initialization processing unit 103, the hierarchical hidden variable variation probability calculation processing unit 104, the component optimization processing unit 105, the gate function optimization processing unit 106, and the optimality determination processing may be realized by dedicated hardware.
  • FIG. 6 is a flowchart illustrating an operation example of the hierarchical hidden variable model estimation device according to at least one embodiment.
  • the data input device 101 inputs the input data 111 (step S100).
  • the hierarchical hidden structure setting unit 102 selects and sets a hierarchical hidden structure that has not yet been optimized from the input candidate values of the hierarchical hidden structure (step S101).
  • the initialization processing unit 103 performs initialization processing of parameters used for estimation and hidden variable variation probabilities for the set hierarchical hidden structure (step S102).
  • the hierarchical hidden variable variation probability calculation processing unit 104 calculates the variation probability of each path hidden variable (step S103).
  • the component optimization processing unit 105 optimizes the component by estimating the type and parameter of the observation probability for each component (step S104).
  • the gate function optimization processing unit 106 optimizes branch parameters at each branch node (step S105).
  • the optimality determination processing unit 107 determines whether or not the optimization criterion A has converged (step S106). That is, the optimality determination processing unit 107 determines the optimality of the model.
  • Step S106 when it is not determined that the optimization criterion A has converged, that is, when it is determined that the optimization criterion A is not optimal (No in Step S106a), the processing from Step S103 to Step S106 is repeated.
  • step S106 determines whether the optimization criterion A has converged. If it is determined that the optimization criterion A is optimal (Yes in step S106a), the optimal model selection processing unit 108 sets the currently set optimal The optimization standard A based on the correct model (for example, the number of components, the type of observation probability, and the parameter) and the value of the optimization standard A based on the model currently set as the optimal model are compared. The model is selected (step S107).
  • the correct model for example, the number of components, the type of observation probability, and the parameter
  • the optimum model selection processing unit 108 determines whether or not a candidate for a hierarchical hidden structure that has not been estimated remains (step S108). When candidates remain (Yes in step S108), the processing from step S101 to step S108 is repeated. On the other hand, if no candidate remains (No in step S108), the model estimation result output device 109 outputs the model estimation result and completes the process (step S109). That is, the model estimation result output device 109 records the component optimized by the component optimization processing unit 105 and the gate function optimized by the gate function optimization processing unit 106 in the model database 500.
  • FIG. 7 is a flowchart illustrating an operation example of the hierarchical hidden variable variation probability calculation processing unit 104 according to at least one embodiment.
  • the lowest layer route hidden variable variation probability calculation processing unit 104-1 calculates the lowest layer route hidden variable variation probability (step S111).
  • the hierarchy setting unit 104-2 sets up to which level the path hidden variable has been calculated (step S112).
  • the upper layer route hidden variable variation probability calculation processing unit 104-3 uses the route hidden variable variation probability in the layer set by the layer setting unit 104-2, and uses the route hidden variable variation probability of the layer one level higher. A variation probability is calculated (step S113).
  • the hierarchy calculation end determination processing unit 104-4 determines whether or not there is a layer for which a route hidden variable has not been calculated (step S114). When a layer for which the route hidden variable is not calculated remains (No in step S114), the processing from step S112 to step S113 is repeated. On the other hand, when there is no layer in which the route hidden variable is not calculated (Yes in step S114), the hierarchical hidden variable variation probability calculation processing unit 104 completes the process.
  • FIG. 8 is a flowchart illustrating an operation example of the gate function optimization processing unit 106 according to at least one embodiment.
  • the branch node information acquisition unit 106-1 grasps all branch nodes (step S121).
  • the branch node selection processing unit 106-2 selects one branch node to be optimized (step S122).
  • the branch parameter optimization processing unit 106-3 optimizes the branch parameter in the selected branch node (step S123).
  • step S124 the all-branch node optimization end determination processing unit 106-4 determines whether there are any branch nodes that are not optimized.
  • the branch node which is not optimized remains (No in step S124)
  • the process from step S122 to step S123 is repeated.
  • the gate function optimization processing unit 106 completes the process.
  • the hierarchical hidden structure setting unit 102 sets the hierarchical hidden structure.
  • the hierarchical hidden structure is a structure in which hidden variables are represented by a tree structure, and a component representing a probability model is arranged at the lowermost node of the tree structure.
  • the hierarchical hidden variable variation probability calculation processing unit 104 calculates the variation probability of the path hidden variable (that is, the optimization criterion A).
  • the hierarchical hidden variable variation probability calculation processing unit 104 may calculate the variation probability of hidden variables in order from the lowermost node for each hierarchical level of the tree structure. Further, the hierarchical hidden variable variation probability calculation processing unit 104 may calculate the variation probability so as to maximize the marginalized log likelihood.
  • the component optimization processing unit 105 optimizes the component with respect to the calculated variation probability, and the gate function optimization processing unit 106 performs the gate function based on the variation probability of the hidden variable in the node of the hierarchical hidden structure.
  • the gate function model is a model that determines a branching direction according to multivariate data in a node having a hierarchical hidden structure.
  • a hierarchical hidden variable model including a hierarchical hidden variable can be estimated with an appropriate amount of computation without losing the theoretical validity. Further, by using the hierarchical hidden variable model estimation device 100, it is not necessary to manually set an appropriate reference for separating components.
  • the hierarchical hidden structure setting unit 102 sets a hierarchical hidden structure in which the hidden variables are represented by a binary tree structure, and the gate function optimization processing unit 106 performs Bernoulli based on the variation probability of the hidden variables in the nodes.
  • a gate function model based on the distribution may be optimized. In this case, since each parameter has an analytical solution, higher-speed optimization is possible.
  • the hierarchical hidden variable model estimation apparatus 100 can separate components into a broadcast pattern of transmission contents, a broadcast time pattern for each period of transmission contents, a sales pattern of a target product for a predetermined period, and the like.
  • FIG. 9 is a block diagram illustrating a configuration example of a sales prediction apparatus according to at least one embodiment.
  • the sales prediction device 700 includes a data input device 701, a model acquisition unit 702, a component determination unit 703, a sales prediction unit 704, and a prediction result output device 705.
  • the data input device 701 inputs one or more explanatory variables that are information that may affect future sales as input data 711.
  • the types of explanatory variables constituting the input data 711 are the same types as the explanatory variables of the input data 111.
  • the data input device 701 is an example of a prediction data input unit.
  • the model acquisition unit 702 acquires gate functions and components from the model database 500 as models used for sales prediction.
  • the gate function is optimized by the gate function optimization processing unit 106.
  • the component is optimized by the component optimization processing unit 105.
  • the component determination unit 703 follows the hierarchical hidden structure based on the input data 711 input by the data input device 701 and the gate function acquired by the model acquisition unit 702. Then, the component determination unit 703 determines a component associated with the lowest layer node of the hierarchical hidden structure as a component used for sales prediction.
  • the sales prediction unit 704 predicts sales by substituting the input data 711 input by the data input device 701 for the component determined by the component determination unit 703.
  • the prediction result output device 705 outputs the sales prediction result 712 by the sales prediction unit 704.
  • FIG. 10 is a flowchart illustrating an operation example of the sales prediction apparatus 700 according to at least one embodiment.
  • the data input device 701 inputs the input data 711 (step S131).
  • the data input device 701 may input a plurality of input data 711 instead of a single input data 711.
  • the data input device 701 may input, for example, input data 711 including sales data for the last three months of a certain product, Twitter data for the last three months, and TV metadata up to the day before the future prediction date.
  • the sales prediction unit 704 predicts the sales of the target product for each input data 711.
  • the model acquisition unit 702 acquires gate functions and components from the model database 500 (step S132).
  • the sales prediction device 700 selects the input data 711 one by one, and executes the processes of Step S134 to Step S136 shown below for the selected input data 711 (Step S133).
  • the component determination unit 703 determines components to be used for sales prediction by tracing from the root node of the hierarchical hidden structure to the lowest layer node based on the gate function acquired by the model acquisition unit 702 (step S134). . Specifically, the component determination unit 703 determines a component according to the following procedure.
  • the component determination unit 703 reads out the gate function associated with the node for each node of the hierarchical hidden structure. Next, the component determination unit 703 determines whether the input data 711 satisfies the read gate function. Next, the component determination unit 703 determines a child node to be traced next based on the determination result. When the component determination unit 703 traces the hierarchically hidden node by the processing and reaches the lowest layer node, the component determination unit 703 determines a component associated with the node as a component used for sales prediction.
  • the sales prediction unit 704 predicts the sales of the target product by substituting the input data 711 selected in step S133 for the component (step S135). ).
  • the prediction result output device 705 outputs the sales prediction result 712 by the sales prediction unit 704 (step S136).
  • the sales prediction device 700 executes the processing from step S134 to step S136 for all the input data 711 to complete the processing.
  • the sales prediction apparatus 700 can accurately predict the sales of the target product by using an appropriate component with a gate function.
  • the gate function and the component are estimated by the hierarchical hidden variable model estimation device 100 without losing the theoretical validity, the sales prediction device 700 uses the components classified by an appropriate standard. Sales can be predicted.
  • the sales prediction support system according to the present embodiment is different from the sales prediction support system 10 only in that the hierarchical hidden variable model estimation device 100 is replaced with a hierarchical hidden variable model estimation device 200.
  • FIG. 11 is a block diagram illustrating a configuration example of a hierarchical hidden variable model estimation device according to at least one embodiment.
  • symbol same as FIG. 3 is attached
  • subjected and description is abbreviate
  • the hierarchical hidden variable model estimation device 200 of this embodiment is different from the hierarchical hidden variable model estimation device 100 in that the hierarchical hidden structure optimization processing unit 201 is connected and the optimal model selection processing unit 108 is not connected. Only the difference.
  • the hierarchical hidden variable model estimation device 100 optimizes a component or gate function model with respect to a hierarchical hidden structure candidate, and selects a hierarchical hidden structure that maximizes the optimization criterion A.
  • the hierarchical hidden variable model estimation apparatus 200 of the present embodiment after the processing by the hierarchical hidden variable variation probability calculation processing unit 104, the hierarchical hidden structure optimization processing unit 201 uses the model to determine the path where the hidden variable is reduced. A process to be removed has been added.
  • FIG. 12 is a block diagram illustrating a configuration example of the hierarchical hidden structure optimization processing unit 201 according to at least one embodiment.
  • the hierarchical hidden structure optimization processing unit 201 includes a route hidden variable sum operation processing unit 201-1, a route removal determination processing unit 201-2, and a route removal execution processing unit 201-3.
  • the route hidden variable sum operation processing unit 201-1 receives the hierarchical hidden variable variation probability 104-6, and calculates the sum of the lowest layer route hidden variable variation probability in each component (hereinafter referred to as a sample sum).
  • the path removal determination processing unit 201-2 determines whether the sample sum is equal to or less than a predetermined threshold value ⁇ .
  • is a threshold value input together with the input data 111.
  • the condition determined by the route removal determination processing unit 201-2 can be expressed by the following Expression 5, for example.
  • the route removal determination processing unit 201-2 determines whether or not the lowest layer route hidden variable variation probability q (z ij n ) in each component satisfies the criterion represented by the above equation 5. In other words, it can be said that the path removal determination processing unit 201-2 determines whether the sample sum is sufficiently small.
  • the path removal execution processing unit 201-3 sets the variation probability of the path determined to have a sufficiently small sample sum to zero. Then, the route removal execution processing unit 201-3 uses the lowest layer route hidden variable variation probability normalized with respect to the remaining routes (that is, routes that have not been set to 0) to change the layer hidden variable change in each layer. Recalculate and output the fractional probability 104-6.
  • Expression 6 is an update expression of q (z ij n ) in the iterative optimization.
  • the hierarchical hidden structure optimization processing unit 201 (more specifically, the route hidden variable sum operation processing unit 201-1, the route removal determination processing unit 201-2, and the route removal execution processing unit 201-3) It is realized by a CPU of a computer that operates according to a hierarchical hidden variable model estimation program).
  • FIG. 13 is a flowchart illustrating an operation example of the hierarchical hidden variable model estimation apparatus 200 according to at least one embodiment.
  • the data input device 101 inputs the input data 111 (step S200).
  • the hierarchical hidden structure setting unit 102 sets the initial state of the number of hidden states as the hierarchical hidden structure (step S201).
  • the optimal solution is searched by executing all the plurality of candidates for the number of components.
  • the hierarchical hidden structure can be optimized by a single process. Therefore, in step S201, it is only necessary to set the initial value of the number of hidden states once instead of selecting a plurality of candidates that are not optimized as shown in step S102 in the first embodiment.
  • the initialization processing unit 103 performs initialization processing of parameters used for estimation and hidden variable variation probabilities for the set hierarchical hidden structure (step S202).
  • the hierarchical hidden variable variation probability calculation processing unit 104 calculates the variation probability of each path hidden variable (step S203).
  • the hierarchical hidden structure optimization processing unit 201 optimizes the hierarchical hidden structure by estimating the number of components (step S204). That is, since the components are arranged in each lowermost node, when the hierarchical hidden structure is optimized, the number of components is also optimized.
  • the component optimization processing unit 105 optimizes the component by estimating the type and parameter of the observation probability for each component (step S205).
  • the gate function optimization processing unit 106 optimizes branch parameters at each branch node (step S206).
  • the optimality determination processing unit 107 determines whether or not the optimization criterion A has converged (step S207). That is, the optimality determination processing unit 107 determines the optimality of the model.
  • step S207 when it is not determined that the optimization criterion A has converged, that is, when it is determined that the optimization criterion A is not optimal (No in step S207a), the processing from step S203 to step S207 is repeated.
  • step S207 if it is determined in step S207 that the optimization criterion A has converged, that is, if it is determined to be optimal (Yes in step S207a), the model estimation result output device 109 outputs the model estimation result. The process is completed (step S208).
  • FIG. 14 is a flowchart illustrating an operation example of the hierarchical hidden structure optimization processing unit 201 according to at least one embodiment.
  • the route hidden variable sum operation processing unit 201-1 calculates a sample sum of route hidden variables (step S211).
  • the path removal determination processing unit 201-2 determines whether or not the calculated sample sum is sufficiently small (step S212).
  • the path removal execution processing unit 201-3 outputs the hierarchical hidden variable variation probability recalculated by setting the lowest layer path hidden variable variation probability determined that the sample sum is sufficiently small as 0, and completes the processing. (Step S213).
  • the hierarchical hidden structure optimization processing unit 201 optimizes the hierarchical hidden structure by excluding routes whose calculated variation probability is equal to or less than a predetermined threshold from the model.
  • the sales prediction support system according to the present embodiment is different from the second embodiment in the configuration of the hierarchical hidden variable model estimation device.
  • the hierarchical hidden variable model estimation apparatus according to this embodiment is different from the hierarchical hidden variable model estimation apparatus 200 only in that the gate function optimization processing unit 106 is replaced with a gate function optimization processing unit 113.
  • FIG. 15 is a block diagram illustrating a configuration example of the gate function optimization processing unit 113 according to the third embodiment.
  • the gate function optimization processing unit 113 includes an effective branch node selection unit 113-1 and a branch parameter optimization parallel processing unit 113-2.
  • the effective branch node selection unit 113-1 selects only effective branch nodes from the hierarchical hidden structure. Specifically, the effective branch node selection unit 113-1 uses the estimation model 104-5 estimated by the component optimization processing unit 105 and considers the route removed from the model, so that only effective branch nodes are obtained. Sort out. That is, an effective branch node means a branch node on a route that has not been removed from the hierarchical hidden structure.
  • the branch parameter optimization parallel processing unit 113-2 performs the branch parameter optimization processing on the valid branch nodes in parallel, and outputs the gate function model 106-6. Specifically, the branch parameter optimization parallel processing unit 113-2 uses the input data 111 and the hierarchical hidden variable variation probability 104-6 calculated by the hierarchical hidden variable variation probability calculation processing unit 104, Optimize branch parameters for all valid branch nodes concurrently.
  • the branch parameter optimization parallel processing unit 113-2 may be configured by arranging the branch parameter optimization processing units 106-3 of the first embodiment in parallel as illustrated in FIG. With such a configuration, branch parameters of all gate functions can be optimized at one time.
  • the hierarchical hidden variable model estimation devices 100 and 200 execute the optimization function of the gate function one by one, but the hierarchical hidden variable model estimation device of this embodiment performs the optimization processing of the gate function in parallel. Therefore, faster model estimation is possible.
  • the gate function optimization processing unit 113 (more specifically, the effective branch node selection unit 113-1 and the branch parameter optimization parallel processing unit 113-2) operates according to a program (a hierarchical hidden variable model estimation program). This is realized by a CPU of a computer.
  • FIG. 16 is a flowchart illustrating an operation example of the gate function optimization processing unit 113 according to at least one embodiment.
  • the valid branch node selection unit 113-1 selects all valid branch nodes (step S301).
  • the branch parameter optimization parallel processing unit 113-2 optimizes all valid branch nodes in parallel (step S302), and completes the process.
  • the effective branch node selection unit 113-1 selects effective branch nodes from the hierarchically hidden nodes, and the branch parameter optimization parallel processing unit 113-2 is effective.
  • the portal function model is optimized based on the variational probability of the hidden variable at the branch node.
  • the branch parameter optimization parallel processing unit 113-2 processes optimization of each branch parameter related to an effective branch node in parallel. Therefore, since the optimization process of the gate function can be performed in parallel, in addition to the effects of the above-described embodiment, it is possible to perform model estimation at a higher speed.
  • the sales prediction support system according to the fourth embodiment predicts sales based on the CM execution plan. Specifically, the sales prediction support system predicts sales according to a CM implementation plan (hereinafter, also referred to as an exposure pattern) determined based on a CM budget, a CM price list, and the like.
  • the sales prediction device 800 included in the sales prediction support system according to the fourth embodiment is an example of a CM plan support system.
  • FIG. 17 is a block diagram illustrating a configuration example of a sales prediction apparatus according to at least one embodiment.
  • the sales prediction device 700 is replaced with a sales prediction device 800 as compared with the sales prediction support system 10.
  • the sales prediction device 800 includes an exposure pattern generation unit 801, a sales evaluation unit 802, a data input device 701, a model acquisition unit 702, a component determination unit 703, and a sales prediction unit 704. Note that the model acquisition unit 702 and the component determination unit 703 of the present embodiment are different in operation from the model acquisition unit 702 and the component determination unit 703 of the first embodiment. The operation of the data input device 701 is the same as that of the first embodiment.
  • the exposure pattern generation unit 801, the sales evaluation unit 802, the data input device 701, the model acquisition unit 702, the component determination unit 703, and the sales prediction unit 704 operate according to a program (CM plan support program). This is realized by a CPU of a computer. Even though each of the exposure pattern generation unit 801, the sales evaluation unit 802, the data input device 701, the model acquisition unit 702, the component determination unit 703, and the sales prediction unit 704 is realized by dedicated hardware. Good.
  • the model acquisition unit 702 acquires a gate function and a component from the model database 500 as a model used for sales prediction, similar to the model acquisition unit 702 of the first embodiment. Furthermore, the model acquisition unit 702 of the present embodiment may visualize and display the acquired gate functions and component contents.
  • FIG. 18 is an explanatory diagram showing an example in which a model is visualized.
  • a hierarchical hidden variable model is represented by a tree structure. Therefore, the model acquisition unit 702 may display a component (or component identification information) at the root node and display a condition (or condition identification information) indicated by the gate function corresponding to the upper node.
  • three prediction formulas are arranged at the root node.
  • the gate function corresponding to the node that branches into the prediction formula 2 and the prediction formula 3 has a condition that “CM increment from last month ⁇ MM times”. Indicates that the prediction formula is branched.
  • the exposure pattern generation unit 801 generates an exposure pattern 811 based on information (for example, CM budget, CM price list, CM attribute data, etc.) used when considering a CM to be executed, and inputs data as prediction data. Input to the device 701.
  • information for example, CM budget, CM price list, CM attribute data, etc.
  • the exposure pattern 811 input here is future schedule data indicating the contents of the CM scheduled to be executed between the prediction execution time and the prediction target time. That is, the exposure pattern 811 generated here is an explanatory variable indicating future scheduled data, and has a different property from the actual data that can be acquired up to the point of the prediction execution.
  • the model database 500 stores a sales prediction model learned based on past exposure patterns. Further, the exposure pattern 811 is changeable schedule data, and the nature of the exposure pattern 811 is different from that of data such as a weather forecast that cannot be changed intentionally.
  • future scheduled data that is executed between the prediction execution date and the prediction target date is used as an explanatory variable.
  • the method by which the exposure pattern generation unit 801 generates the exposure pattern 811 is arbitrary.
  • the exposure pattern generation unit 801 may generate the exposure pattern 811 by comprehensively changing items other than essential items (for example, a period, a time zone, etc.) so as to be within the CM budget.
  • the exposure pattern generation unit 801 may generate an exposure pattern 811 that places importance on explanatory variables that can have a greater influence on sales. Specifically, the exposure pattern generation unit 801 receives from the component determination unit 703, which will be described later, an explanatory variable that can affect sales more, and generates an exposure pattern 811 that increases the specific gravity of the explanatory variable. May be. By generating such an exposure pattern, it is possible to generate a CM execution plan that is predicted to increase sales.
  • the data input device 701 inputs the input data 711 and the exposure pattern 811 to the component determination unit 703 as prediction data.
  • the component determination unit 703 follows the hierarchical hidden structure based on the input data 711 and the exposure pattern 811 and the gate function acquired by the model acquisition unit 702, as in the first embodiment. Then, the component determination unit 703 determines a component associated with the lowest layer node of the hierarchical hidden structure as a component used for sales prediction.
  • the component determination unit 703 of the present embodiment may output the content of the determined component. Specifically, the component determination unit 703 may visualize higher explanatory variables that may have an effect on sales.
  • the component used for sales prediction can be represented by a primary expression of each explanatory variable as exemplified in the following expression B, for example.
  • y is an objective variable indicating future sales
  • xi is an explanatory variable
  • a i represents the weight for each explanatory variable x i .
  • the component determination unit 703 may output the contents of explanatory variables that influence sales more among the explanatory variables used for sales prediction. For example, the component determination unit 703 may output an explanatory variable having a larger weight value. Further, the component determination unit 703 may adjust the weight value according to the range that each explanatory variable can take, and output an explanatory variable having a larger weight value after the adjustment.
  • FIG. 19 is an explanatory diagram showing an example in which the contents of the determined component are visualized.
  • explanatory variables that can influence sales more and their weights are output together with the hierarchical structure.
  • the component determination unit 703 may output the branch condition indicated by the gate function having the hierarchical hidden structure together with the hierarchical structure. Further, the branch condition may be displayed in accordance with a pointing device operation (for example, an operation of clicking with a mouse).
  • the component determination unit 703 may visualize and display the acquired gate function and component contents.
  • the prediction expression of the objective variable obtained by the component determination unit 703 can be expressed in the form of the expression B exemplified above, for example, it is not a so-called black box expression, Superior in terms of interpretability. Therefore, explanatory variables that affect the sales of the target product can be output at low cost.
  • the sales prediction unit 704 predicts sales based on the component determined by the component determination unit 703, the input data 711, and the exposure pattern 811.
  • the sales evaluation unit 802 evaluates the predicted sales. Specifically, when the sales based on the newly predicted exposure pattern is larger than the sales based on the previously predicted exposure pattern, the sales evaluation unit 802 holds the exposure pattern in a memory (not shown). The sales evaluation unit 802 evaluates until a predetermined condition is satisfied (for example, the increase in sales falls below a certain threshold, the number of predictions reaches a predetermined number, the prediction time passes a predetermined period, etc.) repeat. Thereafter, the sales evaluation unit 802 outputs the exposure pattern stored in the memory as the optimum exposure pattern.
  • a predetermined condition for example, the increase in sales falls below a certain threshold, the number of predictions reaches a predetermined number, the prediction time passes a predetermined period, etc.
  • the sales evaluation unit 802 may instruct the exposure pattern generation unit 801 to generate a new exposure pattern until the prediction process by the sales prediction unit 704 or the predicted increase in sales satisfies a predetermined condition. . It can be said that the exposure pattern generation unit 801 and the sales evaluation unit 802 cooperate in this way to perform a simulation for CM optimization.
  • the hierarchical hidden variable model estimation device 100 estimates a gate function and a component for predicting sales of a target product.
  • the hierarchical hidden variable model estimation device 100 estimates a gate function and a component for each target product.
  • the hierarchical hidden variable model estimation device 100 calculates the gate function and the component by the method shown in the first embodiment. In other embodiments, the hierarchical hidden variable model estimation apparatus 100 may calculate the gate function and the component by the method shown in the second embodiment or the method shown in the third embodiment.
  • the hierarchical hidden variable model estimation device 100 records the estimated gate functions and components in the model database 500.
  • the sales prediction device 800 starts sales prediction.
  • FIG. 20 is a flowchart showing an operation example of the sales prediction apparatus according to at least one embodiment.
  • the exposure pattern generation unit 801 of the sales prediction device 800 generates an exposure pattern 811 (step S141). Specifically, the exposure pattern generation unit 801 generates TV metadata (CM execution plan) from the prediction execution date to the day before the future prediction target date.
  • the data input device 701 inputs the input data 711 and the exposure pattern 811 (step S142). Specifically, the data input device 701 inputs the latest sales data and the latest Twitter data of the target product as input data 711.
  • the input data 711 and the exposure pattern 811 are collectively referred to as input data 711.
  • the model acquisition unit 702 acquires the gate function and component for the target product from the model database 500 (step S143).
  • the component determination unit 703 determines components to be used for sales prediction by tracing from the root node of the hierarchical hidden structure to the lowest layer node based on the input data 711 and the gate function acquired by the model acquisition unit 702. (Step S144). Further, the component determination unit 703 outputs higher explanatory variables that can be influenced by sales based on the determined components (step S145).
  • the sales prediction unit 704 predicts the sales of the target product by substituting the input data 711 selected in step S143 for the component (step S146).
  • the sales evaluation unit 802 evaluates the predicted sales. Specifically, the sales evaluation unit 802 determines whether or not the newly predicted sales have increased from the previously predicted sales (step S147). If the sales increase (Yes in step S147), the sales evaluation unit 802 updates the held exposure pattern 811 (step S148). On the other hand, when the sales have not increased (No in step S147), the sales evaluation unit 802 performs the processing after step S149.
  • the sales evaluation unit 802 determines whether the end condition of the prediction process is satisfied (step S149). If the end condition is satisfied (Yes in step S149), the sales evaluation unit 802 outputs the held exposure pattern as an optimum exposure pattern (step S150). On the other hand, when the termination condition is not satisfied (No in step S149), the exposure pattern generation unit 801 generates a new exposure pattern based on the explanatory variable output by the component determination unit 703 (step S151), and step S142. The subsequent processing is repeated.
  • the component determination unit 703 determines the component specified from the hierarchical hidden structure based on the input data that is the prediction data and the exposure pattern, and the sales prediction unit 704 predicts sales using the determined components. Therefore, it is possible to predict sales with high accuracy, and it is possible to easily identify factors that can influence sales more.
  • the sales evaluation unit 802 holds one optimal exposure pattern and outputs the exposure pattern. However, the sales evaluation unit 802 holds a plurality of exposure patterns together with the sales forecast. Also good. Then, the sales evaluation unit 802 may output an exposure pattern with a higher sales forecast.
  • FIG. 21 is a block diagram showing a basic configuration of a CM plan support system.
  • the CM plan support system includes a prediction data input unit 91, an exposure pattern generation unit 92, a component determination unit 93, and a sales prediction unit 94.
  • the prediction data input unit 91 inputs prediction data that is one or more explanatory variables that are information that may affect future sales.
  • An example of the prediction data input unit 91 is a data input device 701.
  • the exposure pattern generation unit 92 generates an exposure pattern that is an explanatory variable indicating the contents of a CM scheduled to be executed between the prediction execution time and the future prediction target time.
  • An example of the exposure pattern generation unit 92 is an exposure pattern generation unit 801.
  • the component determining unit 93 includes a hierarchical hidden structure in which hidden variables are represented by a tree structure, and a component representing a probability model is arranged at a lowermost node of the tree structure, and a branch direction in the node of the hierarchical hidden structure
  • the component used for the sales prediction is determined based on the gate function for determining the sales data and the forecast data and the exposure pattern.
  • An example of the component determining unit 93 is a component determining unit 703.
  • the sales prediction unit 94 predicts sales based on the component determined by the component determination unit 93, the prediction data, and the exposure pattern.
  • An example of the sales prediction unit 94 is a sales prediction unit 704.
  • the CM plan support system can perform appropriate sales prediction based on the CM plan at a low cost by using an appropriate component by the gate function.
  • the component determination unit 93 may output an explanatory variable that can affect sales. With such a configuration, it is possible to formulate a CM plan that emphasizes factors that can have a greater impact on sales.
  • the exposure pattern generation unit 92 may generate an exposure pattern that increases the specific gravity of the output explanatory variable. According to such a configuration, it becomes possible to automatically create a CM plan that affects sales more.
  • the CM plan support system may include a sales evaluation unit that evaluates the predicted sales.
  • An example of the sales evaluation unit is a sales evaluation unit 802.
  • the sales evaluation unit may instruct the exposure pattern generation unit 92 to generate a new exposure pattern until the prediction process by the sales prediction unit 94 or the predicted increase in sales satisfies a predetermined condition. According to such a configuration, it is possible to automatically create an optimal CM plan.
  • the component determination unit 93 may output an explanatory variable that may be influenced by sales together with the hierarchical hidden structure. Moreover, the component determination part 93 may output the branch condition which the gate function of a hierarchy hidden structure shows.
  • FIG. 22 is a block diagram showing the basic configuration of the sales prediction support system.
  • the sales prediction support system includes a learning data input unit 81 (for example, a learning data input unit 81) that inputs learning data that is a combination of an objective variable indicating future sales and one or more explanatory variables that are information that may affect the sales. , A data input device 101), and a hidden layer structure setting unit 82 for setting a hidden layer structure in which hidden variables are expressed in a tree structure and a component representing a probability model is arranged at the lowest node of the tree structure.
  • a learning data input unit 81 for example, a learning data input unit 81
  • a data input device 101 A data input device 101
  • a hidden layer structure setting unit 82 for setting a hidden layer structure in which hidden variables are expressed in a tree structure and a component representing a probability model is arranged at the lowest node of the tree structure.
  • a variation probability calculation unit 83 (for example, a hierarchical hidden variable variation probability calculation processing unit 104) that calculates a variation probability of a path hidden variable that is
  • the component optimization processing unit 84 (for example, the component optimization processing unit 105) that optimizes the component with respect to the calculated variation probability based on the learning data input by the unit 81, and the hierarchical hidden structure node
  • a gate function optimization unit 85 (for example, a gate function optimization processing unit 106) that optimizes a gate function model, which is a model for determining a branch direction according to an explanatory variable, based on a variation probability of a hidden variable at the node.
  • a prediction data input unit 86 (for example, a data input device 701) that inputs one or more explanatory variables as prediction data, and the contents of a CM scheduled to be executed between the prediction execution time and a future prediction target time
  • An exposure pattern generation unit 87 (for example, an exposure pattern generation unit 801) that generates an exposure pattern that is an explanatory variable indicating an optimal variable, and a gate function optimization unit 85 are optimal.
  • the component determination unit 88 (for example, the component determination unit 703) determines a component to be used for sales prediction among the components optimized by the component optimization processing unit 84 based on the calculated gate function, the prediction data, and the exposure pattern. ), A component determined by the component determination unit 88, and a sales prediction unit 89 (for example, a sales prediction unit 704) that predicts sales based on the prediction data and the exposure pattern.
  • FIG. 23 is a schematic block diagram illustrating a configuration of a computer according to at least one embodiment.
  • the computer 1000 includes a CPU 1001, a main storage device 1002, an auxiliary storage device 1003, and an interface 1004.
  • the above-described hierarchical hidden variable model estimation device and sales prediction device are each implemented in the computer 1000.
  • the computer 1000 on which the hierarchical hidden variable model estimation device is mounted and the computer 1000 on which the sales prediction device is mounted may be different.
  • the operation of each processing unit described above is stored in the auxiliary storage device 1003 in the form of a program (an estimation program for a hierarchical hidden variable model or a sales prediction program).
  • the CPU 1001 reads out the program from the auxiliary storage device 1003, expands it in the main storage device 1002, and executes the above processing according to the program.
  • the auxiliary storage device 1003 is an example of a tangible medium that is not temporary.
  • Other examples of the non-temporary tangible medium include a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, and a semiconductor memory connected via the interface 1004.
  • this program is distributed to the computer 1000 via a communication line, the computer 1000 that has received the distribution may develop the program in the main storage device 1002 and execute the above processing.
  • the program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that realizes the above-described function in combination with another program already stored in the auxiliary storage device 1003.
  • difference file difference program
  • Learning data input processing for inputting learning data, which is a combination of objective variables indicating future sales and one or more explanatory variables that are information that may affect the sales, to a computer, hidden
  • the variable is represented by a tree structure
  • the hidden layer structure setting process for setting the hidden layer structure which is a structure in which the component representing the probability model is arranged at the lowest node of the tree structure, is input in the learning data input process.
  • Variation probability calculation processing for calculating a variation probability of a path hidden variable that is a hidden variable included in a path connecting from a root node to a target node in the hierarchical hidden structure based on the learning data and the component, A component that optimizes the component with respect to the calculated variation probability based on the learning data input in the learning data input process Optimization processing, gate function optimization processing for optimizing a gate function model, which is a model for determining a branch direction according to the explanatory variable, in a node of the hierarchical hidden structure based on a variation probability of the hidden variable in the node
  • Prediction data input processing for inputting one or more explanatory variables as prediction data, and generating an exposure pattern that is an explanatory variable indicating the contents of a CM scheduled to be executed from the prediction execution time to a future prediction target time
  • SYMBOLS 10 Sales prediction support system 100 Hierarchical hidden variable model estimation apparatus 300 Learning database 500 Model database 700,800 Sales prediction apparatus 701 Data input apparatus 702 Model acquisition part 703 Component determination part 704 Sales prediction part 801 Exposure pattern generation part 802 Sales evaluation part

Landscapes

  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 予測用データ入力部91は、将来の売上に影響を与え得る情報である1つ以上の説明変数である予測用データを入力する。露出パタン生成部92は、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する。コンポーネント決定部93は、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造と、その階層隠れ構造のノードにおいて分岐方向を決定する門関数と、予測用データおよび露出パタンとに基づいて、売上の予測に用いるコンポーネントを決定する。売上予測部94は、コンポーネント決定部93が決定したコンポーネントと、予測用データおよび露出パタンとに基づいて、売上を予測する。

Description

CM計画支援システムおよび売上予測支援システム
 本発明は、CM計画に基づく売上を予測するCM計画支援システム、CM計画支援方法およびCM計画支援プログラム、並びに、売上予測支援システム、売上予測支援方法および売上予測支援プログラムに関する。
 商品の売上を上げるために、様々なマーケティング活動が行われている。特に、近年の情報メディアの発展に伴い、様々な情報メディアを利用して行われる広告や口コミなども、商品の売上に大きな影響を及ぼすことが知られている。そのため、商品の売上を予測するためには、売上に影響する様々な要因を適切に分析することが必要になる。
 例えば、特許文献1には、売上額を予測する販売促進計画支援システムが記載されている。特許文献1に記載された販売促進計画支援システムは、所望の販売期間における顧客の受注件数又は売上金額と、所望の販売促進時期に実行された販売促進手段毎の実行数量の相互相関係数を算出する。
 また、複数の要因から生じたデータを要因ごとに分離するため、モデル化の際には、混合隠れ変数モデルが用いられることも多い。非特許文献1には、隠れ変数モデルの代表例である混合モデルに対して、完全周辺尤度関数を近似して、その下界(下限)を最大化することで、観測確率の種類を決定する方法が記載されている。
特開2013-12168号公報
Ryohei Fujimaki, Satoshi Morinaga: Factorized Asymptotic Bayesian Inference for Mixture Modeling. Proceedings of the the fifteenth international conference on Artificial Intelligence and Statistics (AISTATS), March 2012.
 特許文献1に記載されたシステムでは、過去の受注件数又は売上金額と販売促進手段の実行数量との関係にのみ着目して売上を予測しており、各販売促進手段の内容までは考慮されていない。そのため、特許文献1に記載されたシステムでは、実行される各販売促進手段の要因の中から、売上に影響する要因を決定することは困難であるため、その要因に基づいてコマーシャル(以下、CMと記す。)計画を行うことは困難である。
 非特許文献1に記載された方法を用いることで、売上に影響する観測確率の種類を決定することは可能である。しかし、非特許文献1に記載された方法の場合、階層的な隠れ変数を含むモデルのモデル選択問題は解決できないという技術的課題がある。その理由は、非特許文献1に記載された方法は、階層的な隠れ変数を考慮していないため、自明には計算手順を構築できないからである。また、非特許文献1に記載された方法は、階層的な隠れ変数がある場合には適用できないという強い仮定に基づいているため、この方法を単純に適用した場合には理論的正当性を失ってしまうからである。
 本発明の目的は、上述した課題を解決するCM計画支援システム、CM計画支援方法およびCM計画支援プログラム、並びに、売上予測支援システム、売上予測支援方法および売上予測支援プログラムを提供することにある。
 本発明によるCM計画支援システムは、将来の売上に影響を与え得る情報である1つ以上の説明変数である予測用データを入力する予測用データ入力部と、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成部と、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造と、その階層隠れ構造のノードにおいて分岐方向を決定する門関数と、予測用データおよび露出パタンとに基づいて、売上の予測に用いるコンポーネントを決定するコンポーネント決定部と、コンポーネント決定部が決定したコンポーネントと、予測用データおよび露出パタンとに基づいて、売上を予測する売上予測部とを備えたことを特徴とする。
 本発明によるCM計画支援方法は、将来の売上に影響を与え得る情報である1つ以上の説明変数である予測用データを入力し、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成し、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造と、その階層隠れ構造のノードにおいて分岐方向を決定する門関数と、予測用データおよび露出パタンとに基づいて、売上の予測に用いるコンポーネントを決定し、決定されたコンポーネントと、予測用データおよび露出パタンとに基づいて、売上を予測することを特徴とする。
 本発明によるCM計画支援プログラムは、コンピュータに、将来の売上に影響を与え得る情報である1つ以上の説明変数である予測用データを入力する予測用データ入力処理、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成処理、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造と、その階層隠れ構造のノードにおいて分岐方向を決定する門関数と、予測用データおよび露出パタンとに基づいて、売上の予測に用いるコンポーネントを決定するコンポーネント決定処理、および、コンポーネント決定処理で決定されたコンポーネントと、予測用データおよび露出パタンとに基づいて、売上を予測する売上予測処理を実行させることを特徴とする。
 本発明による売上予測支援システムは、将来の売上を示す目的変数とその売上に影響を与え得る情報である1つ以上の説明変数の複数の組み合わせである学習用データを入力する学習用データ入力部と、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造を設定する階層隠れ構造設定部と、学習用データ入力部が入力した学習用データとコンポーネントとに基づいて、階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算部と、学習用データ入力部が入力した学習用データに基づいて、算出された変分確率に対してコンポーネントを最適化するコンポーネント最適化処理部と、階層隠れ構造のノードにおいて説明変数に応じた分岐方向を決定するモデルである門関数モデルを、そのノードにおける隠れ変数の変分確率に基づいて最適化する門関数最適化部と、1つ以上の説明変数を予測用データとして入力する予測用データ入力部と、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成部と、門関数最適化部が最適化した門関数と、予測用データおよび露出パタンとに基づいて、コンポーネント最適化処理部が最適化したコンポーネントのうち、売上の予測に用いるコンポーネントを決定するコンポーネント決定部と、コンポーネント決定部が決定したコンポーネントと、予測用データおよび露出パタンとに基づいて、売上を予測する売上予測部とを備えたことを特徴とする。
 本発明による売上予測支援方法は、将来の売上を示す目的変数とその売上に影響を与え得る情報である1つ以上の説明変数の複数の組み合わせである学習用データを入力し、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造を設定し、入力された学習用データとコンポーネントとに基づいて、階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算し、入力された学習用データに基づいて、算出された変分確率に対してコンポーネントを最適化し、階層隠れ構造のノードにおいて説明変数に応じた分岐方向を決定するモデルである門関数モデルを、そのノードにおける隠れ変数の変分確率に基づいて最適化し、1つ以上の説明変数を予測用データとして入力し、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成し、最適化された門関数と、予測用データおよび露出パタンとに基づいて、最適化されたコンポーネントのうち、売上の予測に用いるコンポーネントを決定し、決定されたコンポーネントと、予測用データおよび露出パタンとに基づいて、売上を予測することを特徴とする。
 本発明による売上予測支援プログラムは、コンピュータに、将来の売上を示す目的変数とその売上に影響を与え得る情報である1つ以上の説明変数の複数の組み合わせである学習用データを入力する学習用データ入力処理、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造を設定する階層隠れ構造設定処理、学習用データ入力処理で入力された学習用データとコンポーネントとに基づいて、階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算処理、学習用データ入力処理で入力された学習用データに基づいて、算出された変分確率に対してコンポーネントを最適化するコンポーネント最適化処理、階層隠れ構造のノードにおいて説明変数に応じた分岐方向を決定するモデルである門関数モデルを、そのノードにおける隠れ変数の変分確率に基づいて最適化する門関数最適化処理、1つ以上の説明変数を予測用データとして入力する予測用データ入力処理、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成処理、門関数最適化処理で最適化された門関数と、予測用データおよび露出パタンとに基づいて、コンポーネント最適化処理で最適化されたコンポーネントのうち、売上の予測に用いるコンポーネントを決定するコンポーネント決定処理、および、コンポーネント決定処理で決定されたコンポーネントと、予測用データおよび露出パタンとに基づいて、売上を予測する売上予測処理を実行させることを特徴とする。
 上記態様によれば、上述した技術的手段により、将来の売上を適切に予測することができるという技術的効果を奏する。
少なくとも1つの実施形態に係る売上予測支援システムの構成例を示すブロック図である。 少なくとも1つの実施形態に係る学習用データベースが記憶する情報の例を示す図である。 少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の構成例を示すブロック図である。 少なくとも1つの実施形態に係る階層隠れ変数変分確率計算処理部の構成例を示すブロック図である。 少なくとも1つの実施形態に係る門関数最適化処理部の構成例を示すブロック図である。 少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の動作例を示すフローチャートである。 少なくとも1つの実施形態に係る階層隠れ変数変分確率計算処理部の動作例を示すフローチャートである。 少なくとも1つの実施形態に係る門関数最適化処理部の動作例を示すフローチャートである。 少なくとも1つの実施形態に係る売上予測装置の構成例を示すブロック図である。 少なくとも1つの実施形態に係る売上予測装置の動作例を示すフローチャートである。 少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の構成例を示すブロック図である。 少なくとも1つの実施形態に係る階層隠れ構造最適化処理部の構成例を示すブロック図である。 少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の動作例を示すフローチャートである。 少なくとも1つの実施形態に係る階層隠れ構造最適化処理部の動作例を示すフローチャートである。 第3の実施形態の門関数最適化処理部の構成例を示すブロック図である。 少なくとも1つの実施形態に係る門関数最適化処理部の動作例を示すフローチャートである。 少なくとも1つの実施形態に係る売上予測装置の構成例を示すブロック図である。 モデルを可視化した例を示す説明図である。 決定されたコンポーネントの内容を可視化した例を示す説明図である。 少なくとも1つの実施形態に係る売上予測装置の動作例を示すフローチャートである。 CM計画支援システムの基本構成を示すブロック図である。 売上予測支援システムの基本構成を示すブロック図である。 少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
 本明細書において、階層隠れ変数モデルとは、隠れ変数(すなわち、階層構造)が木構造を持つものである。その木構造の最下層のノードには、確率モデルであるコンポーネントが配される。また、各分岐ノードには、入力に応じて分岐を振り分ける門関数が設けられている。以下の説明では、特に深さ2の階層隠れ変数モデルについて具体的な説明を行う。
 また、階層構造は木構造を想定しているため、根ノードからあるノードまでの道筋は一つに決定される。以下、階層隠れ構造において根ノードからあるノードまで結んだときの道筋(リンク)のことを経路と記す。また、経路ごとに隠れ変数を辿ることで、経路隠れ変数が決定される。例えば、最下層経路隠れ変数とは、根ノードから最下層ノードまでの経路ごとに決定される経路隠れ変数を示す。
 また、以下の説明では、データ列x(n=1,・・・,N)が入力されると仮定し、各xがM次元多変量データ列(x=x ,・・・,x )であるとする。また、データ列xのことを観測変数と記すこともある。観測変数xに対する第1層分岐隠れ変数z 、最下層分岐隠れ変数zj|i 、最下層経路隠れ変数zij を定義する。
 z =1は、根ノードに入力されたxが第1層第iノードへ分岐することを表し、z =0は、第1層第iノードへは分岐しないことを表している。zj|i =1は、第1層第iノードに入力されたxが第2層第jノードへ分岐することを表し、zj|i =0は、第1層第iノードに入力されたxが第2層第jノードへは分岐しないことを表している。zij =1は、xが第1層第iノード、第2層第jノードを通ることで辿られるコンポーネントに対応することを表し、zij =0は、xが第1層第iノード、第2層第jノードを通ることで辿られるコンポーネントに対応しないことを表している。
 なお、Σ =1、Σj|i =1、zij =z ・zj|i を満たすため、これらより、z =Σij が成り立つ。xと、最下層経路隠れ変数zij の代表値zとの組みは、「完全変数」と呼ばれる。一方、対比として、xは、不完全変数と呼ばれる。
 完全変数に関する深さ2の階層隠れ変数モデル同時分布は、以下に示す式1で表される。
Figure JPOXMLDOC01-appb-M000001
 
 すなわち、完全変数に関する深さ2の階層隠れ変数モデル同時分布は、上記に示す式1に含まれるP(x,y)=P(x,z1st,z2nd)で定義される。ここでは、z の代表値をz1st とし、zj|i の代表値をz2nd とする。なお、第1層分岐隠れ変数z に対する変分分布をq(z )とし、最下層経路隠れ変数zij に対する変分分布をq(zij )とする。
 上記の式1において、Kは、第1層のノード数を表し、Kは、第1層のノードそれぞれから分岐するノード数を表す。最下層のコンポーネントは、K・Kで表される。また、θ=(β,β1,・・・, βK,φ1,・・・,φK・K)が、モデルのパラメータを表すとする。ただし、βは、根ノードの分岐パラメータであり、βkは、第1層第kノードの分岐パラメータであり、φkは、k番目のコンポーネントに対する観測パラメータである。
 また、S1,・・・,SK・Kは、φkに対応する観測確率の種類を表すとする。なお、例えば、多変量データの生成確率の場合、S1~SK・Kになり得る候補は、{正規分布、対数正規分布、指数分布}などである。また、例えば、多項曲線が出力される場合、S1~SK・Kになり得る候補は、{0次曲線、1次曲線、2次曲線、3次曲線}などである。
 なお、以下の説明では、具体的な例を説明する場合、深さ2の階層隠れ変数モデルを例示して説明する。ただし、少なくとも1つの実施形態に係る階層隠れ変数モデルは、深さ2の階層隠れ変数モデルに限定されず、深さが1や3以上の階層隠れ変数モデルであってもよい。この場合も、深さ2の階層隠れ変数モデルの場合と同様に、上記に示す式1や、後述する式2~4を導出すればよく、同様の構成により予測装置が実現される。
 また、以下の説明では、ターゲット変数をXとした場合の分布について説明する。ただし、観測分布が回帰や判別のように、条件付モデルP(Y|X)(Yはターゲットとなる確率変数)である場合についても適用可能である。
 また、実施形態について説明する前に、実施形態に係る予測装置と、非特許文献1に記載された混合隠れ変数モデルに対する推定方法との本質的な違いを説明する。
 非特許文献1に記載された方法では、隠れ変数を各コンポーネントのインジケータとする一般的な混合モデルが想定され、最適化の基準が、非特許文献1の式10に示すように導出される。しかし、フィッシャー情報行列が非特許文献1の式6の形式で与えられているように、非特許文献1に記載された方法では、コンポーネントのインジケータである隠れ変数の確率分布が混合モデルの混合比にのみ依存すると仮定されている。そのため、入力に応じたコンポーネントの切り替えが実現できず、この最適化基準は、適切でない。
 この問題を解決するためには、以下の実施形態で示すように、階層的な隠れ変数を設定し、適切な最適化基準を用いて計算する必要がある。以下の実施形態では、適切な最適化基準として、入力に応じて各分岐ノードでの分岐を振り分ける多段の特異モデルを想定する。
 以下、実施形態を図面を参照して説明する。
《第1の実施形態》
 図1は、少なくとも1つの実施形態に係る売上予測支援システムの構成例を示すブロック図である。本実施形態に係る売上予測支援システム10は、階層隠れ変数モデル推定装置100と、学習用データベース300と、モデルデータベース500と、売上予測装置700とを備える。売上予測支援システム10は、過去に収集された売上情報や、売上に影響すると想定される情報等に基づいて売上の予測に用いるモデルを生成し、当該モデルを用いて売上予測を支援する。
 階層隠れ変数モデル推定装置100は、学習用データベース300が記憶するデータを用いて、将来の売上を予測するモデルを推定し、当該モデルをモデルデータベース500に記録する。
 図2は、少なくとも1つの実施形態に係る学習用データベース300が記憶する情報の例を示す図である。学習用データベース300は、売上情報や、広告媒体を用いた情報発信に関するメタデータ、ソーシャルメディアを利用して発信された情報等を記憶する。
 具体的には、学習用データベース300は、売上予測をする対象の商品に関するデータを含む商品テーブルを記憶してもよい。商品テーブルは、図2(A)に例示するように、商品IDに関連付けて、商品名、商品カテゴリ、商品分類、販売開始日時、定価などを格納する。商品IDは、商品を一意に識別する情報である。
 また、学習用データベース300は、気象に関するデータを含む気象テーブルを記憶してもよい。気象テーブルは、図2(B)に例示するように、日時および地域に関連付けて、気温、その日の最高気温、その日の最低気温、降水量、天気、湿度などを格納する。
 また、学習用データベース300は、商品の売上に関するデータを含む売上テーブルを記憶してもよい。売上テーブルは、図2(C)に例示するように、各商品IDに関連付けて、その商品の期間ごとの売上個数や売上金額を格納する。格納する期間の単位は任意であり、例えば、時間単位でも良く、日単位でも良い。この場合、例えば、一週間の合計売上が必要な場合には、対象とする期間の売上を加算することにより、一週間の売上合計を算出することが可能である。
 また、売上テーブルの内容は、一定期間内の売上に限定されず、例えば、比較する期間同士の差分であってもよい。また、上述する場合と同様、比較する期間の売上を加算し、その差分を取ることによっても、比較する期間同士の差分を取得できる。
 また、学習用データベース300は、テレビジョン放送やインターネットなど、各種広告媒体を用いた情報発信に関するメタデータを含む広告媒体メタデータテーブルを記憶してもよい。図2(D)は、広告媒体にテレビジョン(以下、TVと記す。)を用いた場合のメタデータの例を示す説明図である。広告媒体メタデータテーブルは、図2(D)に例示するように、商品ID、分類、発信内容等に関連付けて、その発信情報の露出時間を所定の期間ごとに格納する。
 広告媒体メタデータテーブルは、他にも、対象キーワードを含むCM放映時間や、カテゴリ別番組(CM)の露出時間、時間帯別の露出時間などを格納してもよい。また、広告媒体メタデータテーブルは、図2(C)に例示する売上テーブルに集計される売上の期間に合わせて、これらの情報を集計してもよい。
 また、学習用データベース300は、ソーシャルメディアを利用して発信された情報を含む発信情報テーブルを記憶してもよい。図2(E)は、ソーシャルメディアにTwitter(登録商標)を利用して発信された情報の例を示す説明図である。発信情報テーブルは、同類のキーワードをグループ化して格納する。
 図2(E)に例示する情報は、Twitterを利用して発信される各キーワードをもとに、トピック抽出エンジンを用いて所定の数のクラスタを生成し、そのクラスタに含まれる単語を列挙したものである。なお、トピック抽出エンジンは、似た意味を有する単語が似た文書に登場するという考え方に基づく統計モデルにより、自動的に単語をまとめ上げるモジュールである。
 例えば、図2(E)に示す例では、ラーメン一般の内容を示すキーワードと判断された、うまい(形容詞)、食べる(動詞)、職人(名詞)等が、1つのクラスタに含まれるキーワード群であることを示す。
 モデルデータベース500は、階層隠れ変数モデル推定装置100が推定した、将来の売上を予測するモデルを記憶する。モデルデータベース500は、ハードディスクドライブやソリッドステートドライブなど、一時的でない有形の媒体によって構成される。
 売上予測装置700は、商品の売上に関するデータが入力され、当該データとモデルデータベース500が記憶するモデルとに基づいて、将来の売上を予測する。
 図3は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の構成例を示すブロック図である。本実施形態の階層隠れ変数モデル推定装置100は、データ入力装置101と、階層隠れ構造設定部102と、初期化処理部103と、階層隠れ変数変分確率計算処理部104と、コンポーネント最適化処理部105と、門関数最適化処理部106と、最適性判定処理部107と、最適モデル選択処理部108と、モデル推定結果出力装置109とを備えている。
 階層隠れ変数モデル推定装置100は、学習用データベース300が記憶するデータに基づいて生成された入力データ111が入力されると、その入力データ111に対して階層隠れ構造及び観測確率の種類を最適化し、最適化した結果をモデル推定結果112として出力し、モデルデータベース500に記録する。本実施形態において入力データ111は、学習用データの一例である。
 図4は、少なくとも1つの実施形態に係る階層隠れ変数変分確率計算処理部104の構成例を示すブロック図である。階層隠れ変数変分確率計算処理部104は、最下層経路隠れ変数変分確率計算処理部104-1と、階層設定部104-2と、上層経路隠れ変数変分確率計算処理部104-3と、階層計算終了判定処理部104-4を含む。
 階層隠れ変数変分確率計算処理部104は、入力データ111と、後述するコンポーネント最適化処理部105で推定された推定モデル104-5が入力されると、階層隠れ変数変分確率104-6を出力する。なお、階層隠れ変数変分確率計算処理部104の詳細な説明は後述される。本実施形態におけるコンポーネントは、各説明変数に係る重みを示す値である。売上予測装置700は、当該コンポーネントが示す重みを乗算した説明変数の総和を算出することで目的変数を得ることができる。
 図5は、少なくとも1つの実施形態に係る門関数最適化処理部106の構成例を示すブロック図である。門関数最適化処理部106は、分岐ノード情報取得部106-1と、分岐ノード選択処理部106-2と、分岐パラメータ最適化処理部106-3と、全分岐ノード最適化終了判定処理部106-4とを含む。
 門関数最適化処理部106は、入力データ111と、後述する階層隠れ変数変分確率計算処理部104で算出された階層隠れ変数変分確率104-6と、コンポーネント最適化処理部105で推定された推定モデル104-5が入力されると、門関数モデル106-6を出力する。なお、門関数最適化処理部106の詳細な説明は後述される。本実施形態における門関数は、入力データ111に含まれる情報が所定の条件を満たすか否かの判定を行うための関数である。また、門関数は、階層隠れ構造の内部ノードに対応して設けられる。売上予測装置700は、階層隠れ構造のノードをたどる際、門関数の判定結果に従って次にたどるノードを決定する。
 データ入力装置101は、入力データ111を入力するための装置である。データ入力装置101は、学習用データベース300の売上テーブルに記録されたデータに基づいて、所定の期間(例えば、一日や一週間など)毎の商品の既知の売上を示す目的変数を生成する。目的変数としては、例えば、1つの店舗における1つの商品の所定の時間範囲毎の売上数、全店舗における1つの商品の所定の時間範囲毎の売上数、1つの店舗における全商品の所定の時間範囲毎の売上金額などを採用することができる。
 また、データ入力装置101は、学習用データベース300の各テーブル(例えば、商品テーブル、気象テーブル、売上テーブル、広告媒体メタデータテーブル、発信情報テーブル)に記録されたデータに基づいて、目的変数ごとに、その目的変数に影響を与え得る情報である1つ以上の説明変数を生成する。説明変数としては、例えば、発信内容の露出回数、露出時間、および、発信内容の期間ごとの露出時間の差分、並びに、対象とする商品の過去の売上量などを採用することができる。
 そして、データ入力装置101は、目的変数と説明変数の複数の組み合わせを、入力データ111として入力する。データ入力装置101は、入力データ111を入力する際、観測確率の種類やコンポーネント数の候補など、モデル推定に必要なパラメータを同時に入力する。本実施形態において、データ入力装置101は、学習用データ入力部の一例である。
 階層隠れ構造設定部102は、入力された観測確率の種類やコンポーネント数の候補から、最適化の候補になる階層隠れ変数モデルの構造を選択し、設定する。本実施形態で用いられる隠れ構造は、木構造である。以下では、設定されたコンポーネント数をCと表すものとし、説明に用いられる数式は、深さが2の階層隠れ変数モデルを対象としたものとする。なお、階層隠れ構造設定部102は、選択された階層隠れ変数モデルの構造を内部のメモリに記憶するようにしてもよい。
 例えば、2分木モデル(各分岐ノードから2つに分岐するモデル)で木構造の深さを2とした場合、階層隠れ構造設定部102は、第一階層ノードが2つ、第二階層ノード(本実施形態では、最下層ノード)が4つの階層隠れ構造を選択する。
 初期化処理部103は、階層隠れ変数モデルを推定するための初期化処理を実施する。初期化処理部103は、初期化処理を任意の方法によって実行可能である。初期化処理部103は、例えば、観測確率の種類をコンポーネントごとにランダムに設定し、設定された種類にしたがって、各観測確率のパラメータをランダムに設定してもよい。また、初期化処理部103は、階層隠れ変数の最下層経路変分確率をランダムに設定してもよい。
 階層隠れ変数変分確率計算処理部104は、階層ごとに経路隠れ変数の変分確率を計算する。ここでは、パラメータθは、初期化処理部103、または、コンポーネント最適化処理部105および門関数最適化処理部106で計算されている。そのため、階層隠れ変数変分確率計算処理部104は、その値を利用して変分確率を計算する。
 階層隠れ変数変分確率計算処理部104は、周辺化対数尤度関数を完全変数に対する推定量(例えば、最尤推定量や最大事後確率推定量)に関してラプラス近似し、その下界を最大化することによって変分確率を算出する。以下、このように算出された変分確率を最適化基準Aと呼ぶ。
 最適化基準Aを算出する手順を、深さが2の階層隠れ変数モデルを例に説明する。周辺化対数尤度は、以下に示す式2で表される。
Figure JPOXMLDOC01-appb-M000002
 
 まず、上記に示す式2で表される周辺化対数尤度の下界を考える。式2において、 最下層経路隠れ変数変分確率q(z)を最大化することで等号が成立する。ここで、分子の完全変数の周辺化尤度を完全変数に対する最尤推定量を用いてラプラス近似すると、以下の式3に示す周辺化対数尤度関数の近似式が得られる。
Figure JPOXMLDOC01-appb-M000003
 
 式3において、上付きのバーは、完全変数に対する最尤推定量を表し、Dは、下付きパラメータ*の次元を表す。
 次に、最尤推定量が対数尤度関数を最大化する性質と、対数関数が凹関数であることを利用すると、式3の下界は、以下に示す式4のように算出される。
Figure JPOXMLDOC01-appb-M000004
 
 第1層分岐隠れ変数の変分分布q’及び、最下層経路隠れ変数の変分分布q’’は、それぞれの変分分布について式4を最大化することで得られる。なお、ここでは、q’’=q(t-1)、θ=θ(t-1)に固定し、q’を以下の式Aに示す値に固定する。
  q’=Σk2 j=1(t-1) (式A)
 ただし、上付き(t)は、階層隠れ変数変分確率計算処理部104、コンポーネント最適化処理部105、門関数最適化処理部106、最適性判定処理部107の繰り返し計算におけるt回目の繰り返しを表す。
 次に、図4を参照して、階層隠れ変数変分確率計算処理部104の動作を説明する。
 最下層経路隠れ変数変分確率計算処理部104-1は、入力データ111と推定モデル104-5を入力し、最下層隠れ変数変分確率q(z)を算出する。階層設定部104-2は、変分確率を計算する対象が最下層であることを設定する。具体的には、最下層経路隠れ変数変分確率計算処理部104-1は、入力データ111の目的変数と説明変数の組み合わせ毎に、各推定モデル104-5の変分確率を計算する。変分確率の計算は、推定モデル104-5に入力データ111の説明変数を代入して得られる解と入力データ111の目的変数とを比較することで行う。
 上層経路隠れ変数変分確率計算処理部104-3は、一つ上の層の経路隠れ変数変分確率を算出する。具体的には、上層経路隠れ変数変分確率計算処理部104-3は、同じ分岐ノードを親として持つ現在の層の隠れ変数変分確率の和を算出し、その値を一つ上の層の経路隠れ変数変分確率とする。
 階層計算終了判定処理部104-4は、変分確率を計算する層が上にまだ存在するか否か判定する。上の層が存在すると判定された場合、階層設定部104-2は、変分確率を計算する対象に一つ上の層を設定する。以降、上層経路隠れ変数変分確率計算処理部104-3および階層計算終了判定処理部104-4は、上述する処理を繰り返す。一方、上の層が存在しないと判定された場合、階層計算終了判定処理部104-4は、すべての階層で経路隠れ変数変分確率が算出されたと判定する。
 コンポーネント最適化処理部105は、上記の式4に対して各コンポーネントのモデル(パラメータθおよびその種類S)を最適化し、最適化した推定モデル104-5を出力する。深さが2の階層隠れ変数モデルの場合、コンポーネント最適化処理部105は、qおよびq’’を階層隠れ変数変分確率計算処理部104で算出された最下層経路隠れ変数変分確率q(t)に固定し、q’を上記の式Aに示す上層経路隠れ変数変分確率に固定する。そして、コンポーネント最適化処理部105は、式4に示すGの値を最大化するモデルを算出する。
 上記の式4により定義されたGは、コンポーネントごとに最適化関数を分解することが可能である。そのため、コンポーネントの種類の組み合わせ(例えば、S1~SK・Kのどの種類を指定するか)を考慮することなく、S1~SK・K及びパラメータφ1~φK・Kを別々に最適化できる。このように最適化できる点が、この処理において重要な点である。これにより、組み合わせ爆発を回避してコンポーネントの種類を最適化できる。
 次に、図5を参照して、門関数最適化処理部106の動作を説明する。分岐ノード情報取得部106-1は、コンポーネント最適化処理部105で推定された推定モデル104-5を用いて分岐ノードのリストを抽出する。分岐ノード選択処理部106-2は、抽出された分岐ノードのリストの中から分岐ノードを1つ選択する。以下、選択されたノードのことを選択ノードと記すこともある。
 分岐パラメータ最適化処理部106-3は、入力データ111と、階層隠れ変数変分確率104-6から得られる選択ノードに関する隠れ変数変分確率とを用いて、選択ノードの分岐パラメータを最適化する。なお、選択ノードの分岐パラメータが、上述する門関数に対応する。
 全分岐ノード最適化終了判定処理部106-4は、分岐ノード情報取得部106-1によって抽出されたすべての分岐ノードが最適化されたか否かを判定する。すべての分岐ノードが最適化されている場合、門関数最適化処理部106は、ここでの処理を終了する。一方、すべての分岐ノードが最適化されていない場合、分岐ノード選択処理部106-2による処理が行われ、以降、分岐パラメータ最適化処理部106-3および全分岐ノード最適化終了判定処理部106-4による処理が同様に行われる。
 ここで、門関数の具体例を、2分木の階層モデルに対するベルヌーイ分布を基としたものを例に説明する。以下、ベルヌーイ分布を基とした門関数をベルヌーイ型門関数と記すこともある。ここでは、xの第d次元をxとし、この値がある閾値wを超えないときに2分木の左下へ分岐する確率をgとし、閾値wを超えるときに2分木の左下へ分岐する確率をgとする。分岐パラメータ最適化処理部106-3は、上記の最適化パラメータd、w、g、gをベルヌーイ分布に基づいて最適化する。これは、非特許文献1に記載されたロジット関数に基づくものと異なり、各パラメータが解析解を持つため、より高速な最適化が可能である。
 最適性判定処理部107は、上記の式4を用いて計算される最適化基準Aが収束したか否かを判定する。収束していない場合、階層隠れ変数変分確率計算処理部104、コンポーネント最適化処理部105、門関数最適化処理部106および最適性判定処理部107による処理が繰り返される。最適性判定処理部107は、例えば、最適化基準Aの増分が所定の閾値未満であるときに、最適化基準Aが収束したと判定してもよい。
 以降、階層隠れ変数変分確率計算処理部104、コンポーネント最適化処理部105、門関数最適化処理部106および最適性判定処理部107による処理をまとめて、階層隠れ変数変分確率計算処理部104から最適性判定処理部107による処理と記すこともある。階層隠れ変数変分確率計算処理部104から最適性判定処理部107による処理が繰り返され、変分分布とモデルが更新されることで、適切なモデルを選択できる。なお、これらの処理を繰り返すことにより、最適化基準Aが単調に増加することが保証される。
 最適モデル選択処理部108は、最適なモデルを選択する。具体的には、階層隠れ構造設定部102で設定された隠れ状態数Cに対して、階層隠れ変数変分確率計算処理部104から最適性判定処理部107による処理で算出される最適化基準Aが、現在設定されている最適化基準Aよりも大きい場合、最適モデル選択処理部108は、そのモデルを最適なモデルとして選択する。
 モデル推定結果出力装置109は、入力された観測確率の種類やコンポーネント数の候補から設定される階層隠れ変数モデルの構造の候補についてモデルの最適化が完了した場合、最適な隠れ状態数、観測確率の種類、パラメータ、変分分布などをモデル推定結果112として出力する。一方、最適化の済んでいない候補が存在する場合、階層隠れ構造設定部102へ処理が移され、上述する処理が同様に行われる。
 階層隠れ構造設定部102と、初期化処理部103と、階層隠れ変数変分確率計算処理部104(より詳しくは、最下層経路隠れ変数変分確率計算処理部104-1と、階層設定部104-2と、上層経路隠れ変数変分確率計算処理部104-3と、階層計算終了判定処理部104-4)と、コンポーネント最適化処理部105と、門関数最適化処理部106(より詳しくは、分岐ノード情報取得部106-1と、分岐ノード選択処理部106-2と、分岐パラメータ最適化処理部106-3と、全分岐ノード最適化終了判定処理部106-4)と、最適性判定処理部107と、最適モデル選択処理部108とは、プログラム(売上予測支援プログラム)に従って動作するコンピュータのCPUによって実現される。
 例えば、プログラムは、階層隠れ変数モデル推定装置100の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、階層隠れ構造設定部102、初期化処理部103、階層隠れ変数変分確率計算処理部104(より詳しくは、最下層経路隠れ変数変分確率計算処理部104-1と、階層設定部104-2と、上層経路隠れ変数変分確率計算処理部104-3と、階層計算終了判定処理部104-4)、コンポーネント最適化処理部105、門関数最適化処理部106(より詳しくは、分岐ノード情報取得部106-1と、分岐ノード選択処理部106-2と、分岐パラメータ最適化処理部106-3と、全分岐ノード最適化終了判定処理部106-4)、最適性判定処理部107および最適モデル選択処理部108として動作してもよい。
 また、階層隠れ構造設定部102と、初期化処理部103と、階層隠れ変数変分確率計算処理部104と、コンポーネント最適化処理部105と、門関数最適化処理部106と、最適性判定処理部107と、最適モデル選択処理部108とは、それぞれが専用のハードウェアで実現されていてもよい。
 次に、本実施形態の階層隠れ変数モデル推定装置の動作を説明する。図6は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の動作例を示すフローチャートである。
 まず、データ入力装置101は、入力データ111を入力する(ステップS100)。次に、階層隠れ構造設定部102は、入力された階層隠れ構造の候補値のうち、まだ最適化の行われていない階層隠れ構造を選択し、設定する(ステップS101)。次に、初期化処理部103は、設定された階層隠れ構造に対して、推定に用いられるパラメータや隠れ変数変分確率の初期化処理を行う(ステップS102)。
 次に、階層隠れ変数変分確率計算処理部104は、各経路隠れ変数の変分確率を計算する(ステップS103)。次に、コンポーネント最適化処理部105は、各コンポーネントについて、観測確率の種類とパラメータを推定してコンポーネントを最適化する(ステップS104)。
 次に、門関数最適化処理部106は、各分岐ノードにおける分岐パラメータを最適化する(ステップS105)。次に、最適性判定処理部107は、最適化基準Aが収束したか否かを判定する(ステップS106)。すなわち、最適性判定処理部107は、モデルの最適性を判定する。
 ステップS106において、最適化基準Aが収束したと判定されなかった場合、すなわち、最適ではないと判定された場合(ステップS106aにおけるNo)、ステップS103からステップS106の処理が繰り返される。
 一方、ステップS106において、最適化基準Aが収束したと判定された場合、すなわち、最適であると判定された場合(ステップS106aにおけるYes)、最適モデル選択処理部108は、現在設定されている最適なモデル(例えば、コンポーネント数、観測確率の種類、パラメータ)による最適化基準Aと、最適なモデルとして現在設定されているモデルによる最適化基準Aの値を比較し、値の大きいモデルを最適なモデルとして選択する(ステップS107)。
 次に、最適モデル選択処理部108は、推定されていない階層隠れ構造の候補が残っているか否かを判定する(ステップS108)。候補が残っている場合(ステップS108におけるYes)、ステップS101からステップS108の処理が繰り返される。一方、候補が残っていない場合(ステップS108におけるNo)、モデル推定結果出力装置109は、モデル推定結果を出力し、処理を完了させる(ステップS109)。つまり、モデル推定結果出力装置109は、コンポーネント最適化処理部105が最適化したコンポーネントと、門関数最適化処理部106が最適化した門関数とを、モデルデータベース500に記録する。
 次に、本実施形態の階層隠れ変数変分確率計算処理部104の動作を説明する。図7は、少なくとも1つの実施形態に係る階層隠れ変数変分確率計算処理部104の動作例を示すフローチャートである。
 まず、最下層経路隠れ変数変分確率計算処理部104-1は、最下層経路隠れ変数変分確率を算出する(ステップS111)。次に、階層設定部104-2は、どの層まで経路隠れ変数を算出したか設定する(ステップS112)。次に、上層経路隠れ変数変分確率計算処理部104-3は、階層設定部104-2によって設定された層での経路隠れ変数変分確率を用いて、1つ上の層の経路隠れ変数変分確率を算出する(ステップS113)。
 次に、階層計算終了判定処理部104-4は、経路隠れ変数が算出されていない層が残っているか否かを判定する(ステップS114)。経路隠れ変数が算出されていない層が残っている場合(ステップS114におけるNo)、ステップS112からステップS113の処理が繰り返される。一方、経路隠れ変数が算出されていない層が残っていない場合(ステップS114におけるYes)、階層隠れ変数変分確率計算処理部104は、処理を完了させる。
 次に、本実施形態の門関数最適化処理部106の動作を説明する。図8は、少なくとも1つの実施形態に係る門関数最適化処理部106の動作例を示すフローチャートである。
 まず、分岐ノード情報取得部106-1は、すべての分岐ノードを把握する(ステップS121)。次に、分岐ノード選択処理部106-2は、最適化の対象とする分岐ノードを1つ選択する(ステップS122)。次に、分岐パラメータ最適化処理部106-3は、選択された分岐ノードにおける分岐パラメータを最適化する(ステップS123)。
 次に、全分岐ノード最適化終了判定処理部106-4は、最適化されていない分岐ノードが残っているか否かを判定する(ステップS124)。最適化されていない分岐ノードが残っている場合(ステップS124におけるNo)、ステップS122からステップS123の処理が繰り返される。一方、最適化されていない分岐ノードが残っていない場合(ステップS124におけるYes)、門関数最適化処理部106は、処理を完了させる。
 以上のように、本実施形態では、階層隠れ構造設定部102が、階層隠れ構造を設定する。なお、階層隠れ構造は、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である。
 そして、階層隠れ変数変分確率計算処理部104が、経路隠れ変数の変分確率(すなわち、最適化基準A)を計算する。階層隠れ変数変分確率計算処理部104は、木構造の階層ごとに隠れ変数の変分確率を最下層のノードから順に計算してもよい。また、階層隠れ変数変分確率計算処理部104は、周辺化対数尤度を最大化するように変分確率を計算してもよい。
 そして、コンポーネント最適化処理部105が、算出された変分確率に対してコンポーネントを最適化し、門関数最適化処理部106が、階層隠れ構造のノードにおける隠れ変数の変分確率に基づいて門関数モデルを最適化する。なお、門関数モデルとは、階層隠れ構造のノードにおいて多変量データに応じた分岐方向を決定するモデルである。
 以上のような構成によって多変量データに対する階層隠れ変数モデルを推定するため、理論的正当性を失うことなく適切な計算量で階層的な隠れ変数を含む階層隠れ変数モデルを推定できる。また、階層隠れ変数モデル推定装置100を用いることで、コンポーネントを分けるための適切な基準を人手で設定する必要がなくなる。
 また、階層隠れ構造設定部102が、隠れ変数が2分木構造で表される階層隠れ構造を設定し、門関数最適化処理部106が、ノードにおける隠れ変数の変分確率に基づいて、ベルヌーイ分布を基とした門関数モデルを最適化してもよい。この場合、各パラメータが解析解を持つため、より高速な最適化が可能になる。
 これらの処理によって、階層隠れ変数モデル推定装置100は、発信内容の放送パターン、発信内容の期間ごとの放送時間のパターン、対象とする商品の所定の期間の売上パターンなどにコンポーネントを分離できる。
 本実施形態の売上予測装置について説明する。図9は、少なくとも1つの実施形態に係る売上予測装置の構成例を示すブロック図である。売上予測装置700は、データ入力装置701と、モデル取得部702と、コンポーネント決定部703と、売上予測部704と、予測結果出力装置705とを備える。
 データ入力装置701は、将来の売上に影響を与え得る情報である1つ以上の説明変数を、入力データ711として入力する。入力データ711を構成する説明変数の種類は、入力データ111の説明変数と同じ種類のものである。本実施形態において、データ入力装置701は、予測用データ入力部の一例である。
 モデル取得部702は、売上の予測に用いるモデルとして、モデルデータベース500から門関数及びコンポーネントを取得する。当該門関数は、門関数最適化処理部106によって最適化されたものである。また、当該コンポーネントは、コンポーネント最適化処理部105によって最適化されたものである。
 コンポーネント決定部703は、データ入力装置701が入力した入力データ711とモデル取得部702が取得した門関数とに基づいて、階層隠れ構造をたどる。そして、コンポーネント決定部703は、当該階層隠れ構造の最下層のノードに関連付けられたコンポーネントを、売上予測に用いるコンポーネントに決定する。
 売上予測部704は、コンポーネント決定部703が決定したコンポーネントに、データ入力装置701が入力した入力データ711を代入することで、売上を予測する。予測結果出力装置705は、売上予測部704による売上の予測結果712を出力する。
 次に、本実施形態の売上予測装置700の動作を説明する。図10は、少なくとも1つの実施形態に係る売上予測装置700の動作例を示すフローチャートである。
 まず、データ入力装置701は、入力データ711を入力する(ステップS131)。なお、データ入力装置701は、1つの入力データ711でなく複数の入力データ711を入力しても良い。データ入力装置701は、例えば、ある商品の直近3ヶ月の売上データ、直近3ヶ月のTwitterデータ、将来の予測対象日前日までのTVメタデータを含む入力データ711を入力しても良い。
 データ入力装置701が複数の入力データ711を入力する場合、売上予測部704は、入力データ711ごとに対象商品の売上を予測する。次に、モデル取得部702は、モデルデータベース500から門関数及びコンポーネントを取得する(ステップS132)。
 次に、売上予測装置700は、入力データ711を1つずつ選択し、選択した入力データ711について、以下に示すステップS134~ステップS136の処理を実行する(ステップS133)。
 まず、コンポーネント決定部703は、モデル取得部702が取得した門関数に基づいて、階層隠れ構造の根ノードから最下層のノードまでたどることで、売上の予測に用いるコンポーネントを決定する(ステップS134)。具体的には、コンポーネント決定部703は、以下の手順でコンポーネントを決定する。
 コンポーネント決定部703は、階層隠れ構造のノードごとに当該ノードに関連付けられた門関数を読み出す。次に、コンポーネント決定部703は、入力データ711が、読み出した門関数を満たすか否かを判定する。次に、コンポーネント決定部703は、判定結果に基づいて次にたどる子ノードを決定する。コンポーネント決定部703は、当該処理により階層隠れ構造のノードをたどって最下層のノードに到達すると、当該ノードに関連付けられたコンポーネントを、売上予測に用いるコンポーネントに決定する。
 ステップS134でコンポーネント決定部703が売上予測に用いるコンポーネントを決定すると、売上予測部704は、ステップS133で選択した入力データ711を当該コンポーネントに代入することで、対象商品の売上を予測する(ステップS135)。そして、予測結果出力装置705は、売上予測部704による売上の予測結果712を出力する(ステップS136)。
 そして、売上予測装置700は、ステップS134~ステップS136の処理をすべての入力データ711について実行して、処理を完了させる。
 以上のように、本実施形態の売上予測装置700は、門関数により適切なコンポーネントを用いることで、精度よく対象商品の売上を予測することができる。特に、当該門関数及びコンポーネントは、階層隠れ変数モデル推定装置100により理論的正当性を失うことなく推定されたものであるため、売上予測装置700は、適切な基準で分類されたコンポーネントを用いて売上予測を行うことができる。
《第2の実施形態》
 次に、売上予測支援システムの第2の実施形態について説明する。本実施形態に係る売上予測支援システムは、売上予測支援システム10と比較して、階層隠れ変数モデル推定装置100が階層隠れ変数モデル推定装置200に置き換わったという点でのみ相違する。
 図11は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の構成例を示すブロック図である。なお、第1の実施形態と同様の構成については、図3と同一の符号を付し、説明を省略する。本実施形態の階層隠れ変数モデル推定装置200は、階層隠れ変数モデル推定装置100と比較して、階層隠れ構造最適化処理部201が接続され、最適モデル選択処理部108が接続されていない点でのみ相違する。
 また、第1の実施形態では、階層隠れ変数モデル推定装置100が、階層隠れ構造の候補に対してコンポーネントや門関数のモデルを最適化し、最適化基準Aを最大化する階層隠れ構造を選択する。一方、本実施形態の階層隠れ変数モデル推定装置200では、階層隠れ変数変分確率計算処理部104による処理の後、階層隠れ構造最適化処理部201により、隠れ変数が小さくなった経路がモデルから除去される処理が追加されている。
 図12は、少なくとも1つの実施形態に係る階層隠れ構造最適化処理部201の構成例を示すブロック図である。階層隠れ構造最適化処理部201は、経路隠れ変数和演算処理部201-1と、経路除去判定処理部201-2と、経路除去実行処理部201-3とを含む。
 経路隠れ変数和演算処理部201-1は、階層隠れ変数変分確率104-6を入力し、各コンポーネントにおける最下層経路隠れ変数変分確率の和(以下、サンプル和と記す)を算出する。
 経路除去判定処理部201-2は、サンプル和が所定の閾値ε以下であるか否かを判定する。ここで、εは、入力データ111と共に入力される閾値である。具体的には、経路除去判定処理部201-2が判定する条件は、例えば、以下の式5で表すことができる。
Figure JPOXMLDOC01-appb-M000005
 
 すなわち、経路除去判定処理部201-2は、各コンポーネントにおける最下層経路隠れ変数変分確率q(zij )が上記の式5で表される基準を満たすか否かを判定する。言い換えると、経路除去判定処理部201-2は、サンプル和が十分小さいか否かを判定
しているとも言える。
 経路除去実行処理部201-3は、サンプル和が十分小さいと判定された経路の変分確率を0とする。そして、経路除去実行処理部201-3は、残りの経路(すなわち、0にしなかった経路)に対して正規化した最下層経路隠れ変数変分確率を用いて、各階層での階層隠れ変数変分確率104-6を再計算し、出力する。
 この処理の正当性を説明する。以下に例示する式6は、繰り返し最適化におけるq(zij )の更新式である。
Figure JPOXMLDOC01-appb-M000006
 
 上記に示す式6において、指数部に負の項が含まれ、その前の処理で算出されたq(zij )がその項の分母に存在する。したがって、この分母の値が小さければ小さいほど最適化されたq(zij )の値も小さくなるため、小さい経路隠れ変数変分確率が繰り返し計算されることによって、徐々に小さくなっていくことが示される。
 なお、階層隠れ構造最適化処理部201(より詳しくは、経路隠れ変数和演算処理部201-1と、経路除去判定処理部201-2と、経路除去実行処理部201-3)は、プログラム(階層隠れ変数モデルの推定プログラム)に従って動作するコンピュータのCPUによって実現される。
 次に、本実施形態の階層隠れ変数モデル推定装置200の動作を説明する。図13は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置200の動作例を示すフローチャートである。
 まず、データ入力装置101は、入力データ111を入力する(ステップS200)。次に、階層隠れ構造設定部102は、階層隠れ構造として隠れ状態数の初期状態を設定する(ステップS201)。
 すなわち、第1の実施形態では、コンポーネント数に対して複数個の候補をすべて実行することで最適解を探索していた。一方、本実施形態では、コンポーネント数も最適化できるため、一度の処理で階層隠れ構造の最適化が可能になっている。よって、ステップS201では、第1の実施形態におけるステップS102で示すように複数の候補から最適化が実行されていないものを選ぶのではなく、隠れ状態数の初期値を一度設定するだけでよい。
 次に、初期化処理部103は、設定された階層隠れ構造に対して、推定に用いられるパラメータや隠れ変数変分確率の初期化処理を行う(ステップS202)。
 次に、階層隠れ変数変分確率計算処理部104は、各経路隠れ変数の変分確率を計算する(ステップS203)。次に、階層隠れ構造最適化処理部201は、コンポーネント数を推定することで、階層隠れ構造を最適化する(ステップS204)。すなわち、コンポーネントは各最下層ノードに配されているため、階層隠れ構造が最適化されると、コンポーネント数も最適化されることになる。
 次に、コンポーネント最適化処理部105は、各コンポーネントについて、観測確率の種類とパラメータを推定してコンポーネントを最適化する(ステップS205)。次に、門関数最適化処理部106は、各分岐ノードにおける分岐パラメータを最適化する(ステップS206)。次に、最適性判定処理部107は、最適化基準Aが収束したか否かを判定する(ステップS207)。すなわち、最適性判定処理部107は、モデルの最適性を判定する。
 ステップS207において、最適化基準Aが収束したと判定されなかった場合、すなわち、最適ではないと判定された場合(ステップS207aにおけるNo)、ステップS203からステップS207の処理が繰り返される。
 一方、ステップS207において、最適化基準Aが収束したと判定された場合、すなわち、最適であると判定された場合(ステップS207aにおけるYes)、モデル推定結果出力装置109は、モデル推定結果を出力し、処理を完了させる(ステップS208)。
 次に、本実施形態の階層隠れ構造最適化処理部201の動作を説明する。図14は、少なくとも1つの実施形態に係る階層隠れ構造最適化処理部201の動作例を示すフローチャートである。
 まず、経路隠れ変数和演算処理部201-1は、経路隠れ変数のサンプル和を算出する(ステップS211)。次に、経路除去判定処理部201-2は、算出したサンプル和が十分小さいか否か判定する(ステップS212)。次に、経路除去実行処理部201-3は、サンプル和が十分小さいと判定された最下層経路隠れ変数変分確率を0として再計算した階層隠れ変数変分確率を出力し、処理を完了させる(ステップS213)。
 以上のように、本実施形態では、階層隠れ構造最適化処理部201が、算出された変分確率が所定の閾値以下である経路をモデルから除外することにより階層隠れ構造を最適化する。
 このような構成にすることで、第1の実施形態の効果に加え、階層隠れ変数モデル推定装置100のように複数の階層隠れ構造の候補に対して最適化をする必要がなく、一回の実行処理でコンポーネント数も最適化できる。そのため、コンポーネント数、観測確率の種類とパラメータ、変分分布を同時に推定し、計算コストを抑えることが可能になる。
《第3の実施形態》
 次に、売上予測支援システムの第3の実施形態について説明する。本実施形態に係る売上予測支援システムは、階層隠れ変数モデル推定装置の構成が第2の実施形態と異なるものである。本実施形態の階層隠れ変数モデル推定装置は、階層隠れ変数モデル推定装置200と比較して、門関数最適化処理部106が門関数最適化処理部113に置き換わったという点でのみ相違する。
 図15は、第3の実施形態の門関数最適化処理部113の構成例を示すブロック図である。門関数最適化処理部113は、有効分岐ノード選別部113-1と、分岐パラメータ最適化並列処理部113-2を含む。
 有効分岐ノード選別部113-1は、階層隠れ構造から有効な分岐ノードのみを選別する。具体的には、有効分岐ノード選別部113-1は、コンポーネント最適化処理部105で推定された推定モデル104-5を用い、モデルから除去された経路を考慮することで、有効な分岐ノードのみを選別する。すなわち、有効な分岐ノードとは、階層隠れ構造から除去されていない経路上の分岐ノードを意味する。
 分岐パラメータ最適化並列処理部113-2は、有効な分岐ノードに関する分岐パラメータの最適化処理を並列に行い、門関数モデル106-6を出力する。具体的には、分岐パラメータ最適化並列処理部113-2は、入力データ111と、階層隠れ変数変分確率計算処理部104で算出された階層隠れ変数変分確率104-6とを用いて、有効なすべての分岐ノードに関する分岐パラメータを同時並行で最適化する。
 分岐パラメータ最適化並列処理部113-2は、例えば、図15に例示するように、第1の実施形態の分岐パラメータ最適化処理部106-3を並列に並べて構成してもよい。このような構成により、一度にすべての門関数の分岐パラメータを最適化できる。
 すなわち、階層隠れ変数モデル推定装置100,200は、門関数の最適化処理を1つずつ実行していたが、本実施形態の階層隠れ変数モデル推定装置は、門関数の最適化処理を並行して行うことができるため、より高速なモデル推定が可能になる。
 なお、門関数最適化処理部113(より詳しくは、有効分岐ノード選別部113-1と、分岐パラメータ最適化並列処理部113-2)は、プログラム(階層隠れ変数モデルの推定プログラム)に従って動作するコンピュータのCPUによって実現される。
 次に、本実施形態の門関数最適化処理部113の動作を説明する。図16は、少なくとも1つの実施形態に係る門関数最適化処理部113の動作例を示すフローチャートである。まず、有効分岐ノード選別部113-1は、有効なすべての分岐ノードを選択する(ステップS301)。次に、分岐パラメータ最適化並列処理部113-2は、有効なすべての分岐ノードを並列に最適化し(ステップS302)、処理を完了させる。
 以上のように、本実施形態によれば、有効分岐ノード選別部113-1が、階層隠れ構造のノードから有効な分岐ノードを選別し、分岐パラメータ最適化並列処理部113-2が、有効な分岐ノードにおける隠れ変数の変分確率に基づいて門関数モデルを最適化する。その際、分岐パラメータ最適化並列処理部113-2は、有効な分岐ノードに関する各分岐パラメータの最適化を並列に処理する。よって、門関数の最適化処理を並行して行うことができるため、上述する実施形態の効果に加え、より高速なモデル推定が可能になる。
 《第4の実施形態》
 次に、本発明の第4の実施形態について説明する。第4の実施形態に係る売上予測支援システムは、CM実施計画に基づく売上を予測する。具体的には、売上予測支援システムは、CM予算やCM価格表等に基づいて決定されるCMの実施計画(以下、露出パタンと記すこともある。)に応じた売上を予測する。第4の実施形態に係る売上予測支援システムに含まれる売上予測装置800は、CM計画支援システムの一例である。
 図17は、少なくとも1つの実施形態に係る売上予測装置の構成例を示すブロック図である。本実施形態に係る売上予測支援システムは、売上予測支援システム10と比較して、売上予測装置700が売上予測装置800に置き換わったものである。
 売上予測装置800は、露出パタン生成部801と、売上評価部802と、データ入力装置701と、モデル取得部702と、コンポーネント決定部703と、売上予測部704とを含む。なお、本実施形態のモデル取得部702およびコンポーネント決定部703は、第1の実施形態におけるモデル取得部702およびコンポーネント決定部703と動作が異なる。データ入力装置701の動作は、第1の実施形態と同様である。
 なお、露出パタン生成部801と、売上評価部802と、データ入力装置701と、モデル取得部702と、コンポーネント決定部703と、売上予測部704とは、プログラム(CM計画支援プログラム)に従って動作するコンピュータのCPUによって実現される。露出パタン生成部801と、売上評価部802と、データ入力装置701と、モデル取得部702と、コンポーネント決定部703と、売上予測部704とは、それぞれが専用のハードウェアで実現されていてもよい。
 モデル取得部702は、第1の実施形態のモデル取得部702と同様、売上の予測に用いるモデルとして、モデルデータベース500から門関数及びコンポーネントを取得する。さらに、本実施形態のモデル取得部702は、取得した門関数及びコンポーネントの内容を可視化して表示してもよい。
 図18は、モデルを可視化した例を示す説明図である。上述するように、本明細書において、階層隠れ変数モデルとは、木構造で表される。そこで、モデル取得部702は、根ノードにコンポーネント(またはコンポーネントの識別情報)を表示し、上位のノードに対応する門関数が示す条件(または、条件の識別情報)を表示してもよい。
 図18に示す例では、根ノードに3つの予測式が配置され、例えば、予測式2と予測式3に分岐するノードに対応する門関数が、「先月からのCM増分<MM回」という条件で予測式を分岐させることを示す。
 露出パタン生成部801は、実施するCMを検討する際に用いられる情報(例えば、CM予算、CM価格表、CM属性データなど)に基づいて、露出パタン811を生成し、予測用データとしてデータ入力装置701に入力する。
 ここで入力される露出パタン811は、予測実施時点から予測対象時点までの間に実施予定のCMの内容を示す将来の予定データである。すなわち、ここで生成される露出パタン811は、将来の予定データを示す説明変数であり、予測実施時点までに取得可能な実績データとは、その性質が異なる。なお、モデルデータベース500には、過去の露出パタンに基づいて学習された売上予測モデルが記憶されている。また、露出パタン811は、変更可能な予定データであって、天気予報などのように意図的に予定を変更できないデータとも、その性質が異なる。
 本実施形態では、将来の売上予測に影響を与え得る情報として、予測実施日から予測対象日までの間に実施される将来の予定データを説明変数として利用する。このような説明変数を用いることで、売上予測の精度を向上させることができる。
 露出パタン生成部801が、露出パタン811を生成する方法は任意である。露出パタン生成部801は、例えば、CM予算内に収まるように、必須の項目(例えば、期間、時間帯など)以外を網羅的に変更して、露出パタン811を生成してもよい。
 また、露出パタン生成部801は、売上に対して、より影響を与え得る説明変数を重視する露出パタン811を生成してもよい。具体的には、露出パタン生成部801は、後述するコンポーネント決定部703から、売上に対して、より影響を与え得る説明変数を受信し、その説明変数の比重を高くする露出パタン811を生成してもよい。このような露出パタンを生成することにより、より売上が高くなると予測されるCM実施計画を生成できる。
 データ入力装置701は、入力データ711および露出パタン811を予測用データとして、コンポーネント決定部703に入力する。
 コンポーネント決定部703は、入力データ711および露出パタン811と、モデル取得部702が取得した門関数とに基づいて、第1の実施形態と同様に階層隠れ構造をたどる。そして、コンポーネント決定部703は、当該階層隠れ構造の最下層のノードに関連付けられたコンポーネントを、売上予測に用いるコンポーネントに決定する。
 さらに、本実施形態のコンポーネント決定部703は、決定されたコンポーネントの内容を出力してもよい。具体的には、コンポーネント決定部703は、売上により影響を与え得る上位の説明変数を可視化してもよい。
 コンポーネントは各説明変数に係る重みを示す値であることから、売上予測に用いられるコンポーネントは、例えば、以下の式Bに例示するように、各説明変数の一次式で表すことができる。
 y=a+a+a+・・・+a (式B)
 ここで、yは、将来の売上を示す目的変数であり、xは、説明変数である。また、aは、各説明変数xに対する重みを示す。
 コンポーネント決定部703は、売上予測に用いる説明変数のうち、より売上に影響する説明変数の内容を出力してもよい。コンポーネント決定部703は、例えば、重み値がより大きい説明変数を出力してもよい。また、コンポーネント決定部703は、各説明変数の取りうる範囲に応じて重み値を調整し、その調整後の重み値がより大きい説明変数を出力してもよい。
 図19は、決定されたコンポーネントの内容を可視化した例を示す説明図である。図19に示す例では、売上とともに、売上に対して、より影響を与え得る説明変数(有効な要因)とその重みが階層構造とともに出力されている。
 また、コンポーネント決定部703は、図19に例示するように、階層隠れ構造の門関数が示す分岐条件を階層構造とともに出力してもよい。また、分岐条件が、ポインティングディバイスの操作(例えば、マウスでクリックする操作)に応じて、表示されるようにしてもよい。
 なお、モデル取得部702の代わりに、コンポーネント決定部703が、取得した門関数及びコンポーネントの内容を可視化して表示してもよい。
 このように、本実施形態では、コンポーネント決定部703により得られる目的変数の予測式が、例えば、上記に例示する式Bの形式で表すことができるため、いわゆるブラックボックス化された式ではなく、解釈容易性の観点で優位性が高い。したがって、対象商品の売上に影響する説明変数を低コストで出力できる。
 売上予測部704は、コンポーネント決定部703が決定したコンポーネントと、入力データ711および露出パタン811とに基づいて売上を予測する。
 売上評価部802は、予測された売上を評価する。具体的には、売上評価部802は、前回予測した露出パタンに基づく売上よりも、新たに予測した露出パタンに基づく売上が大きい場合、その露出パタンをメモリ(図示せず)に保持する。そして、売上評価部802は、予め定めた条件を満たすまで(例えば、売上の増分が一定の閾値を下回る、予測回数が所定の回数に達する、予測時間が所定の期間を経過する、など)評価を繰り返す。その後、売上評価部802は、最適な露出パタンとして、メモリに記憶された露出パタンを出力する。
 このように、売上評価部802は、売上予測部704による予測処理または予測される売上の増分が所定の条件を満たすまで、露出パタン生成部801に新たな露出パタンの生成を指示してもよい。露出パタン生成部801と売上評価部802とがこのように連携することで、CM最適化のためのシミュレーションを行っているということができる。
 次に、本実施形態の売上予測システムの動作を説明する。
 まず、階層隠れ変数モデル推定装置100は、対象商品の売上を予測するための門関数及びコンポーネントを推定する。本実施形態では、階層隠れ変数モデル推定装置100は、対象商品ごとに門関数及びコンポーネントを推定する。本実施形態では、階層隠れ変数モデル推定装置100は、第1の実施形態に示す方法により門関数及びコンポーネントを算出する。なお、他の実施形態では、階層隠れ変数モデル推定装置100は、第2の実施形態に示す方法や第3の実施形態に示す方法で門関数及びコンポーネントを算出しても良い。
 階層隠れ変数モデル推定装置100は、推定した門関数及びコンポーネントを、モデルデータベース500に記録する。モデルデータベース500に門関数及びコンポーネントが記録されると、売上予測装置800は、売上の予測を開始する。
 図20は、少なくとも1つの実施形態に係る売上予測装置の動作例を示すフローチャートである。
 売上予測装置800の露出パタン生成部801は、露出パタン811を生成する(ステップS141)。具体的には、露出パタン生成部801は、予測実施日から将来の予測対象日前日までのTVメタデータ(CM実施計画)を生成する。次に、データ入力装置701は、入力データ711および露出パタン811を入力する(ステップS142)。具体的には、データ入力装置701は、対象商品の直近の売上データおよび直近のTwitterデータを入力データ711として入力する。以下、入力データ711と露出パタン811とをまとめて、単に入力データ711と記す。
 モデル取得部702は、モデルデータベース500から対象商品についての門関数およびコンポーネントを取得する(ステップS143)。次に、コンポーネント決定部703は、入力データ711とモデル取得部702が取得した門関数に基づいて、階層隠れ構造の根ノードから最下層のノードまでたどることで、売上予測に用いるコンポーネントを決定する(ステップS144)。また、コンポーネント決定部703は、決定したコンポーネントに基づいて、売上により影響を与え得る上位の説明変数を出力する(ステップS145)。
 コンポーネント決定部703が売上予測に用いるコンポーネントを決定すると、売上予測部704は、ステップS143で選択した入力データ711を当該コンポーネントに代入することで、対象商品の売上を予測する(ステップS146)。
 売上評価部802は、予測された売上を評価する。具体的には、売上評価部802は、新たに予測した売上が、以前に予測した売上よりも増加したか否か判断する(ステップS147)。売上が増加した場合(ステップS147におけるYes)、売上評価部802は、保持している露出パタン811を更新する(ステップS148)。一方、売上が増加していない場合(ステップS147におけるNo)、売上評価部802は、ステップS149以降の処理を行う。
 次に、売上評価部802は、予測処理の終了条件を満たしているか判断する(ステップS149)。終了条件を満たしている場合(ステップS149におけるYes)、売上評価部802は、保持している露出パタンを最適な露出パタンとして出力する(ステップS150)。一方、終了条件を満たしていない場合(ステップS149におけるNo)、露出パタン生成部801は、コンポーネント決定部703が出力した説明変数に基づいて、新たな露出パタンを生成し(ステップS151)、ステップS142以降の処理が繰り返される。
 以上のように、本実施形態の売上予測装置800は、コンポーネント決定部703が、予測用データである入力データと露出パタンに基づいて、階層隠れ構造から特定されるコンポーネントを決定し、売上予測部704が、決定したコンポーネントを用いて売上を予測する。したがって、精度よく売上を予測できるとともに、売上に対して、より影響を与え得る要因を、簡易に特定できる。
 なお、本実施形態では、売上評価部802が最適な露出パタンを1つ保持し、その露出パタンを出力しているが、売上評価部802は、複数の露出パタンを売上予測とともに保持していてもよい。そして、売上評価部802は、売上予測が上位の露出パタンを出力してもよい。
《基本構成》
 次に、CM計画支援システムの基本構成を説明する。図21は、CM計画支援システムの基本構成を示すブロック図である。CM計画支援システムは、予測用データ入力部91と、露出パタン生成部92と、コンポーネント決定部93と、売上予測部94とを備えている。
 予測用データ入力部91は、将来の売上に影響を与え得る情報である1つ以上の説明変数である予測用データを入力する。予測用データ入力部91の例として、データ入力装置701が挙げられる。
 露出パタン生成部92は、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する。露出パタン生成部92の例として、露出パタン生成部801が挙げられる。
 コンポーネント決定部93は、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造と、その階層隠れ構造のノードにおいて分岐方向を決定する門関数と、予測用データおよび露出パタンとに基づいて、売上の予測に用いるコンポーネントを決定する。コンポーネント決定部93の例として、コンポーネント決定部703が挙げられる。
 売上予測部94は、コンポーネント決定部93が決定したコンポーネントと、予測用データおよび露出パタンとに基づいて、売上を予測する。売上予測部94の例として、売上予測部704が挙げられる。
 そのような構成により、CM計画支援システムは、門関数により適切なコンポーネントを用いることで、CM計画に基づく適切な売上予測を低コストで行うことができる。
 また、コンポーネント決定部93は、売上により影響を与え得る説明変数を出力してもよい。このような構成により、売上に対して、より影響を与え得る要因を重視したCM計画を策定できる。
 露出パタン生成部92は、出力された説明変数の比重を高くする露出パタンを生成してもよい。そのような構成によれば、より売上に影響するCM計画を自動で作成することが可能になる。
 また、CM計画支援システムは、予測された売上を評価する売上評価部を備えていてもよい。売上評価部の例として、売上評価部802が挙げられる。そして、売上評価部は、売上予測部94による予測処理または予測される売上の増分が所定の条件を満たすまで、露出パタン生成部92に新たな露出パタンの生成を指示してもよい。そのような構成によれば、最適なCM計画を自動で作成することが可能になる。
 また、コンポーネント決定部93は、売上により影響を与え得る説明変数を、階層隠れ構造とともに出力してもよい。また、コンポーネント決定部93は、階層隠れ構造の門関数が示す分岐条件を出力してもよい。
 次に、売上予測支援システムの基本構成を説明する。図22は、売上予測支援システムの基本構成を示すブロック図である。売上予測支援システムは、将来の売上を示す目的変数とその売上に影響を与え得る情報である1つ以上の説明変数の複数の組み合わせである学習用データを入力する学習用データ入力部81(例えば、データ入力装置101)と、隠れ変数が木構造で表され、その木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造を設定する階層隠れ構造設定部82(例えば、階層隠れ構造設定部102)と、学習用データ入力部81が入力した学習用データとコンポーネントとに基づいて、階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算部83(例えば、階層隠れ変数変分確率計算処理部104)と、学習用データ入力部81が入力した学習用データに基づいて、算出された変分確率に対してコンポーネントを最適化するコンポーネント最適化処理部84(例えば、コンポーネント最適化処理部105)と、階層隠れ構造のノードにおいて説明変数に応じた分岐方向を決定するモデルである門関数モデルを、そのノードにおける隠れ変数の変分確率に基づいて最適化する門関数最適化部85(例えば、門関数最適化処理部106)と、1つ以上の説明変数を予測用データとして入力する予測用データ入力部86(例えば、データ入力装置701)と、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成部87(例えば、露出パタン生成部801)と、門関数最適化部85が最適化した門関数と、予測用データおよび露出パタンとに基づいて、コンポーネント最適化処理部84が最適化したコンポーネントのうち、売上の予測に用いるコンポーネントを決定するコンポーネント決定部88(例えば、コンポーネント決定部703)と、コンポーネント決定部88が決定したコンポーネントと、予測用データおよび露出パタンとに基づいて、売上を予測する売上予測部89(例えば、売上予測部704)とを備えている。
 そのような構成により、対象商品の売上をコストを抑えつつ予測できる。
 図23は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。コンピュータ1000は、CPU1001、主記憶装置1002、補助記憶装置1003、インタフェース1004を備える。
 上述の階層隠れ変数モデル推定装置や売上予測装置は、それぞれコンピュータ1000に実装される。なお、階層隠れ変数モデル推定装置が実装されたコンピュータ1000と売上予測装置が実装されたコンピュータ1000は異なるものであって良い。そして、上述した各処理部の動作は、プログラム(階層隠れ変数モデルの推定プログラムや売上予測プログラム)の形式で補助記憶装置1003に記憶されている。CPU1001は、プログラムを補助記憶装置1003から読み出して主記憶装置1002に展開し、当該プログラムに従って上記処理を実行する。
 なお、少なくとも1つの実施形態において、補助記憶装置1003は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース1004を介して接続される磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等が挙げられる。また、このプログラムが通信回線によってコンピュータ1000に配信される場合、配信を受けたコンピュータ1000が当該プログラムを主記憶装置1002に展開し、上記処理を実行しても良い。
 また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置1003に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)コンピュータに、将来の売上を示す目的変数と当該売上に影響を与え得る情報である1つ以上の説明変数の複数の組み合わせである学習用データを入力する学習用データ入力処理、隠れ変数が木構造で表され、当該木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造を設定する階層隠れ構造設定処理、前記学習用データ入力処理で入力された学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算処理、前記学習用データ入力処理で入力された学習用データに基づいて、算出された変分確率に対して前記コンポーネントを最適化するコンポーネント最適化処理、前記階層隠れ構造のノードにおいて前記説明変数に応じた分岐方向を決定するモデルである門関数モデルを、当該ノードにおける隠れ変数の変分確率に基づいて最適化する門関数最適化処理、1つ以上の説明変数を予測用データとして入力する予測用データ入力処理、予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成処理、前記門関数最適化処理で最適化された門関数と、前記予測用データおよび前記露出パタンとに基づいて、前記コンポーネント最適化処理で最適化された前記コンポーネントのうち、前記売上の予測に用いる前記コンポーネントを決定するコンポーネント決定処理、および、前記コンポーネント決定処理で決定された前記コンポーネントと、前記予測用データおよび前記露出パタンとに基づいて、前記売上を予測する売上予測処理を実行させるための売上予測支援プログラムを記録したコンピュータ読み取り可能な記録媒体。
 以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2014年7月14日に出願された米国仮出願第62/024,121号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 10 売上予測支援システム
 100 階層隠れ変数モデル推定装置
 300 学習用データベース
 500 モデルデータベース
 700,800 売上予測装置
 701 データ入力装置
 702 モデル取得部
 703 コンポーネント決定部
 704 売上予測部
 801 露出パタン生成部
 802 売上評価部

Claims (11)

  1.  将来の売上に影響を与え得る情報である1つ以上の説明変数である予測用データを入力する予測用データ入力部と、
     予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成部と、
     隠れ変数が木構造で表され、当該木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造と、当該階層隠れ構造のノードにおいて分岐方向を決定する門関数と、前記予測用データおよび前記露出パタンとに基づいて、前記売上の予測に用いる前記コンポーネントを決定するコンポーネント決定部と、
     前記コンポーネント決定部が決定した前記コンポーネントと、前記予測用データおよび前記露出パタンとに基づいて、前記売上を予測する売上予測部とを備えた
     ことを特徴とするCM計画支援システム。
  2.  コンポーネント決定部は、売上により影響を与え得る説明変数を出力する
     請求項1記載のCM計画支援システム。
  3.  露出パタン生成部は、出力された説明変数の比重を高くする露出パタンを生成する
     請求項2記載のCM計画支援システム。
  4.  予測された売上を評価する売上評価部を備え、
     前記売上評価部は、売上予測部による予測処理または予測される売上の増分が所定の条件を満たすまで、露出パタン生成部に新たな露出パタンの生成を指示する
     請求項3記載のCM計画支援システム。
  5.  コンポーネント決定部は、売上により影響を与え得る説明変数を、階層隠れ構造とともに出力する
     請求項2から請求項4のうちのいずれか1項に記載のCM計画支援システム。
  6.  コンポーネント決定部は、階層隠れ構造の門関数が示す分岐条件を出力する
     請求項5記載のCM計画支援システム。
  7.  将来の売上に影響を与え得る情報である1つ以上の説明変数である予測用データを入力し、
     予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成し、
     隠れ変数が木構造で表され、当該木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造と、当該階層隠れ構造のノードにおいて分岐方向を決定する門関数と、前記予測用データおよび前記露出パタンとに基づいて、前記売上の予測に用いる前記コンポーネントを決定し、
     決定された前記コンポーネントと、前記予測用データおよび前記露出パタンとに基づいて、前記売上を予測する
     ことを特徴とするCM計画支援方法。
  8.  コンピュータに、
     将来の売上に影響を与え得る情報である1つ以上の説明変数である予測用データを入力する予測用データ入力処理、
     予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成処理、
     隠れ変数が木構造で表され、当該木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造と、当該階層隠れ構造のノードにおいて分岐方向を決定する門関数と、前記予測用データおよび前記露出パタンとに基づいて、前記売上の予測に用いる前記コンポーネントを決定するコンポーネント決定処理、および、
     前記コンポーネント決定処理で決定された前記コンポーネントと、前記予測用データおよび前記露出パタンとに基づいて、前記売上を予測する売上予測処理
     を実行させるためのCM計画支援プログラム。
  9.  将来の売上を示す目的変数と当該売上に影響を与え得る情報である1つ以上の説明変数の複数の組み合わせである学習用データを入力する学習用データ入力部と、
     隠れ変数が木構造で表され、当該木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造を設定する階層隠れ構造設定部と、
     前記学習用データ入力部が入力した学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算部と、
     前記学習用データ入力部が入力した学習用データに基づいて、算出された変分確率に対して前記コンポーネントを最適化するコンポーネント最適化処理部と、
     前記階層隠れ構造のノードにおいて前記説明変数に応じた分岐方向を決定するモデルである門関数モデルを、当該ノードにおける隠れ変数の変分確率に基づいて最適化する門関数最適化部と、
     1つ以上の説明変数を予測用データとして入力する予測用データ入力部と、
     予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成部と、
     前記門関数最適化部が最適化した門関数と、前記予測用データおよび前記露出パタンとに基づいて、前記コンポーネント最適化処理部が最適化した前記コンポーネントのうち、前記売上の予測に用いる前記コンポーネントを決定するコンポーネント決定部と、
     前記コンポーネント決定部が決定した前記コンポーネントと、前記予測用データおよび前記露出パタンとに基づいて、前記売上を予測する売上予測部とを備えた
     ことを特徴とする売上予測支援システム。
  10.  将来の売上を示す目的変数と当該売上に影響を与え得る情報である1つ以上の説明変数の複数の組み合わせである学習用データを入力し、
     隠れ変数が木構造で表され、当該木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造を設定し、
     入力された学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算し、
     入力された学習用データに基づいて、算出された変分確率に対して前記コンポーネントを最適化し、
     前記階層隠れ構造のノードにおいて前記説明変数に応じた分岐方向を決定するモデルである門関数モデルを、当該ノードにおける隠れ変数の変分確率に基づいて最適化し、
     1つ以上の説明変数を予測用データとして入力し、
     予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成し、
     最適化された門関数と、前記予測用データおよび前記露出パタンとに基づいて、最適化された前記コンポーネントのうち、前記売上の予測に用いる前記コンポーネントを決定し、
     決定された前記コンポーネントと、前記予測用データおよび前記露出パタンとに基づいて、前記売上を予測する
     ことを特徴とする売上予測支援方法。
  11.  コンピュータに、
     将来の売上を示す目的変数と当該売上に影響を与え得る情報である1つ以上の説明変数の複数の組み合わせである学習用データを入力する学習用データ入力処理、
     隠れ変数が木構造で表され、当該木構造の最下層のノードに確率モデルを表すコンポーネントが配された構造である階層隠れ構造を設定する階層隠れ構造設定処理、
     前記学習用データ入力処理で入力された学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードから対象ノードまでを結んだ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算処理、
     前記学習用データ入力処理で入力された学習用データに基づいて、算出された変分確率に対して前記コンポーネントを最適化するコンポーネント最適化処理、
     前記階層隠れ構造のノードにおいて前記説明変数に応じた分岐方向を決定するモデルである門関数モデルを、当該ノードにおける隠れ変数の変分確率に基づいて最適化する門関数最適化処理、
     1つ以上の説明変数を予測用データとして入力する予測用データ入力処理、
     予測実施時点から将来の予測対象時点までの間に実施予定のCMの内容を示す説明変数である露出パタンを生成する露出パタン生成処理、
     前記門関数最適化処理で最適化された門関数と、前記予測用データおよび前記露出パタンとに基づいて、前記コンポーネント最適化処理で最適化された前記コンポーネントのうち、前記売上の予測に用いる前記コンポーネントを決定するコンポーネント決定処理、および、
     前記コンポーネント決定処理で決定された前記コンポーネントと、前記予測用データおよび前記露出パタンとに基づいて、前記売上を予測する売上予測処理
     を実行させるための売上予測支援プログラム。
PCT/JP2015/003221 2014-07-14 2015-06-26 Cm計画支援システムおよび売上予測支援システム WO2016009599A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP15821580.6A EP3171321A4 (en) 2014-07-14 2015-06-26 Commercial message planning assistance system and sales prediction assistance system
US15/326,273 US11188946B2 (en) 2014-07-14 2015-06-26 Commercial message planning assistance system and sales prediction assistance system
JP2016534100A JP6477703B2 (ja) 2014-07-14 2015-06-26 Cm計画支援システムおよび売上予測支援システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462024121P 2014-07-14 2014-07-14
US62/024,121 2014-07-14

Publications (1)

Publication Number Publication Date
WO2016009599A1 true WO2016009599A1 (ja) 2016-01-21

Family

ID=55078113

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/003221 WO2016009599A1 (ja) 2014-07-14 2015-06-26 Cm計画支援システムおよび売上予測支援システム

Country Status (4)

Country Link
US (1) US11188946B2 (ja)
EP (1) EP3171321A4 (ja)
JP (1) JP6477703B2 (ja)
WO (1) WO2016009599A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019164605A (ja) * 2018-03-20 2019-09-26 株式会社プロフィールド 情報処理装置、学習装置、情報処理方法、学習情報の生産方法、およびプログラム
WO2019186996A1 (ja) * 2018-03-30 2019-10-03 日本電気株式会社 モデル推定システム、モデル推定方法およびモデル推定プログラム
EP3570241A4 (en) * 2017-01-10 2020-07-01 Dentsu Inc. ADVERTISING TIME WINDOW OPTIMIZATION SYSTEM AND ADVERTISING TIME WINDOW OPTIMIZATION METHOD IN BROADCASTING MEDIA LIKE TELEVISION
WO2021130916A1 (ja) * 2019-12-25 2021-07-01 日本電気株式会社 意図特徴量抽出装置、学習装置、方法およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3523766A4 (en) * 2016-10-06 2020-06-03 The Dun & Bradstreet Corporation AUTOMATIC TRAINING CLASSIFIER AND PREDICTION ENGINE FOR ARTIFICIAL INTELLIGENCE OPTIMIZED PERSPECTIVE DETERMINATION ON A GAIN / LOSS CLASSIFICATION

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05113986A (ja) * 1991-06-13 1993-05-07 Mitsuo Nagamachi 商品発注システム
JP2007018216A (ja) * 2005-07-07 2007-01-25 Nec Corp 適正在庫量算出システム及び適正在庫量算出方法
WO2013179579A1 (ja) * 2012-05-31 2013-12-05 日本電気株式会社 隠れ変数モデル推定装置および方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630986B1 (en) * 1999-10-27 2009-12-08 Pinpoint, Incorporated Secure data interchange
US20110040631A1 (en) * 2005-07-09 2011-02-17 Jeffrey Scott Eder Personalized commerce system
WO2005015362A2 (en) * 2003-08-06 2005-02-17 Innovida, Inc. System and method for delivering and optimizing media programming in public spaces
US7769626B2 (en) * 2003-08-25 2010-08-03 Tom Reynolds Determining strategies for increasing loyalty of a population to an entity
US20060184473A1 (en) * 2003-11-19 2006-08-17 Eder Jeff S Entity centric computer system
US20080162214A1 (en) * 2004-06-14 2008-07-03 Symphonyrpm, Inc. Decision object for associating a plurality of business plans
US8874477B2 (en) * 2005-10-04 2014-10-28 Steven Mark Hoffberg Multifactorial optimization system and method
US8112302B1 (en) * 2006-11-03 2012-02-07 Sas Institute Inc. Computer-implemented systems and methods for forecast reconciliation
WO2008092147A2 (en) * 2007-01-26 2008-07-31 Information Resources, Inc. Analytic platform
US8818838B1 (en) * 2009-03-12 2014-08-26 Henry Rak Consulting Partners, LLC System and method for efficiently developing a hypothesis regarding the structure of a market
WO2011094734A2 (en) * 2010-02-01 2011-08-04 Jumptap, Inc. Integrated advertising system
JP5307217B2 (ja) 2011-06-02 2013-10-02 株式会社黒河 販売促進計画支援システムとそのプログラム
US9047559B2 (en) * 2011-07-22 2015-06-02 Sas Institute Inc. Computer-implemented systems and methods for testing large scale automatic forecast combinations

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05113986A (ja) * 1991-06-13 1993-05-07 Mitsuo Nagamachi 商品発注システム
JP2007018216A (ja) * 2005-07-07 2007-01-25 Nec Corp 適正在庫量算出システム及び適正在庫量算出方法
WO2013179579A1 (ja) * 2012-05-31 2013-12-05 日本電気株式会社 隠れ変数モデル推定装置および方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3171321A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3570241A4 (en) * 2017-01-10 2020-07-01 Dentsu Inc. ADVERTISING TIME WINDOW OPTIMIZATION SYSTEM AND ADVERTISING TIME WINDOW OPTIMIZATION METHOD IN BROADCASTING MEDIA LIKE TELEVISION
JP2019164605A (ja) * 2018-03-20 2019-09-26 株式会社プロフィールド 情報処理装置、学習装置、情報処理方法、学習情報の生産方法、およびプログラム
JP7218847B2 (ja) 2018-03-20 2023-02-07 株式会社プロフィールド 情報処理装置、情報処理方法、およびプログラム
WO2019186996A1 (ja) * 2018-03-30 2019-10-03 日本電気株式会社 モデル推定システム、モデル推定方法およびモデル推定プログラム
JPWO2019186996A1 (ja) * 2018-03-30 2021-03-11 日本電気株式会社 モデル推定システム、モデル推定方法およびモデル推定プログラム
US20210150388A1 (en) * 2018-03-30 2021-05-20 Nec Corporation Model estimation system, model estimation method, and model estimation program
WO2021130916A1 (ja) * 2019-12-25 2021-07-01 日本電気株式会社 意図特徴量抽出装置、学習装置、方法およびプログラム
JPWO2021130916A1 (ja) * 2019-12-25 2021-07-01
JP7279821B2 (ja) 2019-12-25 2023-05-23 日本電気株式会社 意図特徴量抽出装置、学習装置、方法およびプログラム

Also Published As

Publication number Publication date
EP3171321A4 (en) 2017-12-27
EP3171321A1 (en) 2017-05-24
JP6477703B2 (ja) 2019-03-06
US20170206560A1 (en) 2017-07-20
JPWO2016009599A1 (ja) 2017-04-27
US11188946B2 (en) 2021-11-30

Similar Documents

Publication Publication Date Title
JP6344395B2 (ja) 払出量予測装置、払出量予測方法、プログラム、及び、払出量予測システム
JP6477703B2 (ja) Cm計画支援システムおよび売上予測支援システム
JP6459968B2 (ja) 商品推薦装置、商品推薦方法、及び、プログラム
JP6525002B2 (ja) メンテナンス時期決定装置、劣化予測システム、劣化予測方法および記録媒体
JP6179598B2 (ja) 階層隠れ変数モデル推定装置
Westermann et al. Using a deep temporal convolutional network as a building energy surrogate model that spans multiple climate zones
JP6344396B2 (ja) 発注量決定装置、発注量決定方法、プログラム、及び、発注量決定システム
US20160171401A1 (en) Layout optimization for interactional objects in a constrained geographical area
JP6330901B2 (ja) 階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体
US20190164060A1 (en) Method of and server for converting a categorical feature value into a numeric representation thereof
Tayman Assessing uncertainty in small area forecasts: State of the practice and implementation strategy
JP6451736B2 (ja) 価格推定装置、価格推定方法、及び、価格推定プログラム
WO2015145978A1 (ja) エネルギー量推定装置、エネルギー量推定方法、及び、記録媒体
Joshi et al. Statistical downscaling of precipitation and temperature using sparse Bayesian learning, multiple linear regression and genetic programming frameworks
Alrashidi et al. Global solar radiation prediction: Application of novel hybrid data-driven model
Wijnands et al. Variable selection for tropical cyclogenesis predictive modeling
Yun et al. Analysing decision variables that influence preliminary feasibility studies using data mining techniques
Ha et al. A structural weight estimation model of FPSO topsides using an improved genetic programming method
Kouroupetroglou et al. Machine learning techniques for short-term electric load forecasting
CN115660695A (zh) 客服人员标签画像构建方法、装置、电子设备及存储介质
Dailisan et al. Amenity counts significantly improve water consumption predictions
Benáček et al. Postprocessing of Ensemble Weather Forecast Using Decision Tree–Based Probabilistic Forecasting Methods
Kaskhedikar Regression tree-based methodology for customizing building energy benchmarks to individual commercial buildings
US20230419195A1 (en) System and Method for Hierarchical Factor-based Forecasting
Kumar et al. Automatic calibration tool for snowmelt runoff simulation using shuffled complex evolution algorithm

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15821580

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016534100

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015821580

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015821580

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15326273

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE