WO2019069865A1 - パラメータ推定システム、パラメータ推定方法およびパラメータ推定プログラム記録媒体 - Google Patents

パラメータ推定システム、パラメータ推定方法およびパラメータ推定プログラム記録媒体 Download PDF

Info

Publication number
WO2019069865A1
WO2019069865A1 PCT/JP2018/036731 JP2018036731W WO2019069865A1 WO 2019069865 A1 WO2019069865 A1 WO 2019069865A1 JP 2018036731 W JP2018036731 W JP 2018036731W WO 2019069865 A1 WO2019069865 A1 WO 2019069865A1
Authority
WO
WIPO (PCT)
Prior art keywords
function
sample
kernel
parameter
data
Prior art date
Application number
PCT/JP2018/036731
Other languages
English (en)
French (fr)
Inventor
隆文 梶原
山崎 啓介
Original Assignee
日本電気株式会社
国立研究開発法人産業技術総合研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社, 国立研究開発法人産業技術総合研究所 filed Critical 日本電気株式会社
Priority to US16/753,266 priority Critical patent/US11636399B2/en
Priority to JP2019546701A priority patent/JP6853968B2/ja
Publication of WO2019069865A1 publication Critical patent/WO2019069865A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Definitions

  • the present invention relates to a parameter estimation system that estimates the parameters of a function, a parameter estimation method, and a parameter estimation program recording medium.
  • parameters means “the number of people in the group, where from where (departure point), what time do they come from (departure time), where to return from (final Destination point), where to go through (via), and stay value of via value. Note that the departure point and the final arrival point may be the same.
  • ABC Approximate Bayesian Computation
  • ABC is a kind of Monte Carlo method, which is a method of sequentially obtaining high-performance parameters from randomly selected parameter values.
  • pseudo data is generated from a function, and if the pseudo data is close to real data, the parameters used in the function are recognized as correct.
  • ABC there is a problem that it is difficult to conform to high-dimensional parameters. Therefore, ABC requires a large number of samples.
  • Kernel ABC uses a whole sample to express a posterior distribution as a kernel mean weighted by fitness (see Non-Patent Document 1). In many cases, there is a motivation to want to sample from the posterior distribution. However, sampling from kernel mean of posterior distribution is not easy.
  • Kernel Herding enables sampling from kernel mean of posterior distribution.
  • Kernel Herding sampling successfully covers a small number of distribution features and is called supersampling.
  • ARD Automatic Relevance Determination
  • Patent Document 1 discloses a people flow analysis system that supports efficient operation of a city.
  • the flow analysis system disclosed in Patent Document 1 includes a region designation unit, a flow calculation unit, and a display control unit.
  • the area designation unit designates an area on the map.
  • the people flow calculation unit calculates the people flow related to the designated area of the area designation unit based on a plurality of pieces of people flow information including time and position information.
  • the display control unit causes the flow line of the main flow calculated by the flow calculation unit to be displayed on the map displayed on the display unit.
  • the human flow analysis system comprises a simulation unit.
  • the simulation unit calculates the flow of human being by simulation, and for example, calculates the flow of human flow when an agent is newly generated based on the flow of human being database.
  • an agent is a virtual entity that is set up instead of the actual environment in order to generate changes in people flow and traffic flow based on changes in the environment, such as changes in residents, opening and closing of facilities, etc.
  • Patent Document 2 discloses a space-time variable prediction device capable of accurately predicting the values of space-time variables having temporal and spatial correlation.
  • time-series data of space-time variables assuming time-series data of space-time variables, population distribution, speed and direction of human flow and traffic flow, reserves of mineral resources such as gold and diamond, meteorological data such as precipitation, land prices etc. There is.
  • Patent Document 2 as an embodiment, a space-time variable distribution at an unobserved point or in the future is estimated and predicted under the condition that time-series data of population density distribution is given as observation data.
  • the space-time variable prediction device disclosed in Patent Document 2 includes a learning unit.
  • the learning unit is based on a set of observation data stored in the population density information storage unit, and a plurality of hyperparameters for each of the observation data and each hyperparameter of the kernel function which is a function defining the similarity between the observation data.
  • the load ratio which is a parameter representing the degree of contribution of each Gaussian process, is learned.
  • the learning unit includes a burden rate estimation unit, a Gaussian process parameter estimation unit, and an iterative determination unit.
  • the load ratio estimation unit is a unit load that is a parameter that represents the contribution of each of a plurality of units composed of a plurality of Gaussian processes based on a set of observation data and hyper parameters of each of kernel functions of a plurality of Gaussian processes. Estimate the rate and the contribution rate, which is a parameter representing the contribution of each of the Gaussian processes.
  • the Gaussian parameter estimation unit is configured to calculate a kernel of the Gaussian process for each of the plurality of Gaussian processes based on the set of observation data, the unit burden ratio of each of the plurality of units, and the burden ratio of each of the plurality of Gaussian processes. Estimate the hyperparameters of each of the functions.
  • the iteration determination unit repeats the estimation by the load ratio estimation unit and the estimation by the Gaussian process parameter estimation unit until the predetermined iteration end condition is satisfied.
  • Patent Document 3 discloses a people flow research support system that executes large-scale flow distribution estimation processing more efficiently.
  • a large number of hypotheses of human flow distribution are generated based on a human flow model that expresses changes in human flow using a distributed processing platform. Then, by evaluating the compatibility between each of these hypotheses and the measurement data, the flow distribution consistent with the measurement data is calculated. At this time, calculation is parallelized and redundant calculation is eliminated by calculating the time evolution processing of the flow distribution based on the flow model for each similar flow model.
  • the processing parallelization for each human flow model speeds up the evaluation with the actual measurement value by the spatiotemporal index with the measurement data.
  • the flow research support system disclosed in Patent Document 3 has a distributed processing platform that distributes computations to a plurality of computers, and a flow distribution distribution system having a function of distributing flow distribution data in which the flow distribution is estimated from hypothesis data of the flow distribution. And a human flow meter for measuring real-time measurement data of human flow.
  • the distributed processing platform duplicates the whole of the full-flow survey data that matches the current time by a predetermined number, and shifts the positions of the persons of the respective hypotheses at random a little, to create the human-flow hypothesis data.
  • patent document 4 is disclosing the goods information provision system which supports the purchase of the goods in a real store.
  • a visitor's interest is grasped
  • GPS Global Positioning System
  • Non Patent Literature 2 discloses a technical idea that analyzes migration behavior between areas in units of 250 m mesh using mobile spatial statistics.
  • Non-Patent Document 3 discloses a technical idea of probabilistically estimating a stop-by place by a hierarchical migration model based on questionnaire information.
  • ABS The prior art (ABC) has the following problems.
  • the first problem is that when the number of parameters of the function to be estimated is large, the accuracy of the parameters is reduced.
  • the third problem is that, when searching for a parameter that is not actually necessary based on incorrect knowledge, it unconditionally accepts it.
  • Patent Document 1 merely discloses the technical idea of calculating the people flow when a new agent is generated based on the people flow database. Therefore, in patent document 1, it is necessary to store the going-out behavior of each individual in a personal-flow database beforehand. In other words, Patent Document 1 is a technical idea that does not hold when such an individual's going-out behavior is unknown in advance.
  • Patent Document 2 merely discloses a technical idea of estimating and predicting a space-time variable distribution at an unobserved point or future under the condition that time-series data of population density distribution is given as observation data. Not too much.
  • Patent Document 2 describes that it can be applied to time-series data that targets the speed and direction of the flow, but specifically, how to apply to the speed and direction of the flow Does not disclose or suggest anything.
  • the distributed processing platform duplicates the whole of the full-flow survey data that matches the current time by a predetermined number, and shifts the positions of the persons of the respective hypotheses at random a little, to create the live flow hypothesis data. Therefore, a huge amount of data is required for each person.
  • Patent Document 4 since the information on a camera or GPS is utilized, an individual's action locus can be acquired. However, the technique of Patent Document 4 is likely to be a violation of privacy because it leads to personal identification.
  • Non-Patent Document 2 since population distribution information such as mobile spatial statistics is used, privacy can be protected. However, in the method disclosed in Non-Patent Document 2, it is difficult to estimate fine migration behavior because the analysis granularity is rough.
  • Non Patent Literature 3 migration behavior is analyzed based on population distribution and questionnaire information based on a probabilistic behavior model.
  • an analysis method can not grasp the relationship between facilities in detail, which results in insufficient information for utilizing the analysis result for making a town.
  • An object of the present invention is to provide a parameter estimation system and a parameter estimation method that solve the above-mentioned problems.
  • a parameter estimation system is a pattern estimation system that estimates a parameter ⁇ of a function that outputs data y, and a machine learning apparatus that determines the parameter ⁇ to be set to the function by iterative learning
  • the machine learning apparatus further comprises: a first sample acquiring unit for acquiring N (N is an integer of 2 or more) samples ⁇ i (1 ⁇ i ⁇ N) of the parameter ⁇ from the prior distribution P; By sequentially supplying the N samples ⁇ i to the function, a function execution unit acquiring N data y i from the function; and using a kernel function k, the N data y a similarity calculation unit that calculates N similarities w i between i and the correct data y * ; the N similarities w i , the N samples ⁇ i, and the kernel function k From the posterior distribution
  • kernel mean constructing unit for constructing the kernels mean mu; from the kernel average mu and the kernel function k, T parameter theta (T is an integer
  • the pattern estimation method sets the parameter y to the function using the function that outputs data y from a sample of the parameter ⁇ .
  • a parameter estimation method for determining ⁇ by iterative learning wherein the first sample acquiring unit determines from the prior distribution P to N (N is an integer of 2 or more) samples ⁇ i (1 ⁇ i ⁇ ) of the parameter ⁇ .
  • the function execution unit sequentially supplies the N samples ⁇ i to the function, thereby acquiring N data y i from the function; and the similarity calculation unit is a kernel
  • the function k is used to calculate N similarities w i between the N data y i and correct data y * representing the data; a kernel average construction unit calculates the N similarities w i When Wherein the N samples theta i, from said kernel function k, to build a kernel mean ⁇ of the posterior distribution; second sample obtaining section, from the kernel average ⁇ and the kernel function k, T parameter theta (T is an integer greater than or equal to 2) pieces of new samples ⁇ t (1 ⁇ t ⁇ T) are obtained; the sample evaluation unit selects one sample ⁇ k selected from the T new samples ⁇ t It is determined whether the difference
  • the approximate Bayesian computation method (ABC: Approximate Bayesian Computation) is a kind of Monte Carlo method, and is a method of sequentially obtaining high-performance parameters from values of randomly selected parameters. For example, in ABC, pseudo data is generated from a function, and if the pseudo data is close to real data, parameters used in the function are recognized as correct.
  • ABC is a likelihood-free method for Bayesian estimation that applies the rejection algorithm method to the difference between the observed data and the data obtained from the function.
  • Kernel ABC exploits all samples to represent the distribution as a kernel mean weighted by fitness.
  • the kernel method is a methodology for constructing the mapping to high dimensional space.
  • the kernel method maps data into a high-dimensional reconstructed nuclear Hilbert space (generally infinite dimension) and transforms it into data that is easy to analyze.
  • the Hilbert space is a vector space, an inner product, and a set that is complete.
  • RKHR regenerating kernel Hilbert space
  • Kernel Herding makes good use of the characteristics of the kernel mean distribution, and selects representative points with less fog as super samples. That is, Kernel Herding expresses the distribution of appropriate settings with few sample points.
  • parameter samples are obtained from Dirichlet distribution or beta distribution.
  • the Dirichlet distribution and the beta distribution have hyperparameters that control parameter redundancy.
  • the redundancy of the parameter sample is adjusted. For example, if you set the hyperparameters to eliminate redundancy, only a few of the sample elements will have non-zero values and many elements will have zero values. As a result, elements that take a value of 0 have virtually no effect.
  • the kernel mean of the posterior distribution obtained is such that redundancy is greatly reduced.
  • Table 1 shows the ABC algorithm.
  • ABC has the following problems.
  • the first problem is that when the dimension of the data is high, the parameters do not easily meet the tolerance level and the algorithm does not finish in a realistic time.
  • the second issue is that the performance of ABC drops quickly if the parameter dimension is high.
  • the third problem is that it takes time to evaluate a function, so the number of executions can not be omitted.
  • Kernel ABC is used to solve the first and second problems
  • Kernel Herding is used to solve the third problem.
  • the outline of the algorithm of the present invention is as follows.
  • A1. Take the set of parameters N times from the prior distribution.
  • A2. Generate data N times from the function using the set of N parameters.
  • Kernel ABC • Infer the parameters of the function that generates data close to the observed data by calculating the kernel mean of the posterior distribution.
  • Kernel Herding • Take useful samples T times from the kernel mean of the posterior distribution for the next iteration.
  • Kernel ABC is based on Kernel Bayesian rules and is a non-parametric implementation of Bayesian rules.
  • B1. Take the set of parameters N times from the prior distribution.
  • B2. Data obtained by evaluating N functions is obtained by inputting a set of parameters into the function N times.
  • B3. Calculate the similarity (weight) between the true data and the data that evaluated each function.
  • B4. B1. Calculate the kernel average of the parameter posterior distribution according to the following equation by averaging the set of parameters at with their similarity (weight).
  • kernel averaging will be described.
  • X be a random variable taking values over measure space ⁇
  • k be a positive definite kernel over measure space ⁇
  • H be a reproducing kernel Hilbert space (RKHS) defined by positive definite kernel k
  • the characteristic kernel allows the probability distribution to be uniquely embedded in the reconstructed nuclear Hilbert space.
  • the characteristic kernel is, for example, a Gaussian kernel or a Laplace kernel.
  • Bayesian rules can be applied nonparametrically without assuming parametric models between variables or density functions.
  • kernel averages representing probability distributions are estimated nonparametrically from the data.
  • Kernel Herding will be described.
  • the output of Kernel ABC is the kernel mean of the posterior distribution in the reconstructed nuclear Hilbert space, but not itself a posterior distribution. Therefore, it is impossible to use the sampling method from the posterior distribution represented by Markov chain Monte Carlo method. However, Kernel Herding allows for samples from the posterior distribution.
  • the sample from Kernel Herding is called a super-sample that reflects the characteristics of the distribution well.
  • Kernel Herding can be interpreted as sampling by greedily minimizing the next error.
  • Kernel Herding takes samples from areas of high density in the distribution. In other words, it is considered to search for the mode of distribution. Also, the next sample is taken away from the area where the sample was taken once. To summarize the above, it is as follows.
  • Kernel ABC can handle relatively high dimensional parameters, can handle relatively high dimensional data (data evaluating functions / true data of problems), and has easy computational complexity.
  • Kernel Herding can reduce the number of times the required function is evaluated.
  • the human flow simulator is a multi-agent simulator, and in many cases the simulation takes very much computation time.
  • Kernel ABC copes with high-dimensional parameters by performing Bayesian estimation in the reproduction kernel Hilbert space.
  • a prior distribution may be constructed assuming a flow pattern that does not exist in a certain area. For example, in Ginza, it is a popular pattern such as having a lunch at Yoshinoya, buying a watch at Rolex, buying a car at Ferrari, and eating dinner at Matsuya. In the related art, there is no mechanism for the algorithm to automatically delete such a popular flow pattern that is unlikely to exist.
  • the proposed method makes it possible to perform point estimation when the function can not be evaluated.
  • point estimation is achieved by repeatedly applying Kernel ABC + Kernel herding, considering samples from the posterior distribution obtained by Kernel ABC + Kernel Herding as samples from the prior distribution. ing.
  • Kernel Herding gets samples of important parameters with more information efficiently from the posterior distribution. For this, the error converges at O (1 / T).
  • this algorithm is to enable maximum likelihood when the function can not be evaluated.
  • estimation of the flow patterns detailed later but also estimation of parameters of the following function can be considered.
  • model parameters (such as mutation rate) that realize genetic diversity of given data.
  • this algorithm is a software related invention, it has the effect of reducing the calculation time, so it improves (reduces) computer related technology and does not correspond to an abstract concept.
  • FIG. 1 is a block diagram showing the configuration of a human flow pattern estimation system 100 according to an embodiment of the present invention.
  • the illustrated flow pattern estimation system 100 includes a data processing apparatus 200 for processing data, a storage apparatus 300 for storing programs and data to be described later, an input apparatus 400 for inputting data, and an output apparatus 500 for outputting data. Is equipped.
  • the output device 500 includes a display device such as a liquid crystal display (LCD) or a plasma display panel (PDP) or a printer.
  • the output device 500 has a function of displaying various information such as an operation menu or the like and printing out the final result in accordance with an instruction from the data processing device 200.
  • the storage device 300 includes memories such as a hard disk, a read only memory (ROM), and a random access memory (RAM).
  • the storage device 300 has a function of storing processing information 310 and programs 320 necessary for various types of processing in the data processing apparatus 200.
  • the data processing apparatus 200 includes a microprocessor such as a micro processing unit (MPU) and a central processing unit (CPU).
  • the data processing device 200 has a function of reading various programs 320 from the storage device 300 and realizing various processing units that process data according to the programs 320.
  • the data processing device 200 comprises a human flow simulator 210 and a machine learning device 220.
  • a human flow simulator 210 and a machine learning device 220.
  • the function is the flow simulator 210
  • the present invention is generally applicable to other functions.
  • FIG. 2 is a diagram showing an example of population time distribution data indicating correct data y * .
  • the time T is, for example, every 30 minutes.
  • Such population time distribution data can be acquired, for example, by statistical information or SNS (Social Networking Service).
  • SNS is a membership-based online service that provides various functions to maintain and promote social connections between people.
  • the storage device 300 stores the correct answer data y * as the processing information 310.
  • the flow pattern estimation system 100 is a system for estimating a flow pattern which is movement in units of flow groups in the city. As mentioned above, the invention is generally applicable to parameter estimation systems that estimate the parameters of a function.
  • the people flow simulator 210 can simulate a people flow pattern in any area and time.
  • the crowd flow simulator 210 incorporates information of population distribution at each point, each time, and map information and facility information in the city.
  • FIG. 3 is a diagram showing an example of map information and facility information (map / building data) incorporated (set) in the flow simulator 210.
  • the storage device 300 stores map information and facility information as the processing information 310.
  • the map information and the facility information are set in the flow simulator 210 as described later.
  • the flow simulator 210 outputs population distribution data y at each point and each time from the sample of the parameter ⁇ that defines the flow pattern supplied from the machine learning device 220 as described later.
  • the population distribution data y obtained from the flow simulator 210 usually does not match the correct data y * . The reason is that no one knows the flow pattern satisfying the correct data y * .
  • the function according to the invention outputs data y from the samples of the parameter ⁇ .
  • FIG. 4 shows an example of the flow pattern.
  • the flow pattern shown in FIG. 4 indicates the flow pattern after time 9:00 at points A, B, C, D, E, F, G.
  • the parameter ⁇ includes information on departure point, departure time, waypoint, stay time, destination, and number of people of each group.
  • the machine learning device 220 determines the parameter ⁇ to be set in the flow simulator 210 by iterative learning as described later.
  • FIG. 5 is a block diagram showing the main processing units implemented by the machine learning device 200.
  • the machine learning apparatus 200 includes a data input unit 221, a first sample acquisition unit 222, a simulation execution unit 223, a Kernel ABC execution unit 224, a kernel average construction unit 225, and a second sample acquisition unit 226. And a sample evaluation unit 227.
  • the Kernel ABC execution unit 224 works as a similarity calculation unit as described later.
  • the data input unit 221 inputs information on a region where it is desired to estimate a flow pattern to the flow simulator 210.
  • the storage device 300 stores map information and facility information as regional information in the processing information 310.
  • the data input unit 221 reads out the map information and the facility information from the storage device 300, and inputs (sets) the information into the flow simulator 210.
  • the data input unit 221 reads the map information and the facility information stored in the storage device 300 and sets it in the human flow simulator 210.
  • the map information and the facility supplied from the input device 400 Information may be set directly in the flow simulator 210.
  • the operation of the first sample acquisition unit 222 will be described with reference to FIG.
  • the first sample acquisition unit 222 is also referred to as “sample acquisition unit from prior distribution”.
  • An ARD is involved in the first sample acquisition unit 22.
  • the storage device 300 stores, as the processing information 310, a prior distribution P, a hyperparameter ⁇ of the prior distribution P, and the number N of samples from the prior distribution P.
  • the prior distribution P is a mixture model or an appropriate prior distribution that can reflect the case where the solution structure is the same as the mixture model, such that the sum of arbitrary parameter samples is 1.
  • the first sample acquisition unit 222 extracts a sample from the prior distribution as in the following formula.
  • the N samples ⁇ i ⁇ of the acquired parameters are stored in the storage device 300 as processing information 310.
  • the storage device 300 stores the above-described number N of samples and N samples ⁇ i ⁇ of parameters as processing information 310.
  • the simulation execution unit 223 inputs the parameter sample ⁇ i ⁇ N times into the flow simulator 310 to obtain N population distribution data ⁇ y i ⁇ (1 ⁇ i ⁇ ) from the flow simulator 310.
  • the obtained N population distribution data ⁇ yi ⁇ is stored in the storage device 300 as the processing information 310.
  • Kernel ABC execution unit similarity calculation unit
  • the storage device 300 processes the information N of the population distribution data ⁇ y i ⁇ described above, the correct data y * mentioned above, the kernel function k, and the regularization term ⁇ . As saved.
  • Kernel ABC execution unit 224 performs the calculation expressed by the following equation, the similarity between the solution data and the simulated population distribution data ⁇ y i ⁇ ⁇ w i ⁇ get (1 ⁇ i ⁇ N).
  • G indicates a Gram matrix and I indicates an identity matrix.
  • the resulting N number of similarities ⁇ w i ⁇ is stored in the storage unit 300 as the processing information 310.
  • the Kernel ABC execution unit 224 that calculates the similarity w i by the Kernel ABC algorithm is used as the similarity calculation unit, but the present invention is not limited to this.
  • the algorithm used by the similarity calculation unit may whatever the N similarity algorithm for outputting a ⁇ w i ⁇ so build the kernel average of the posterior distribution, which will be described later.
  • the storage device 300 processes the N samples ⁇ i ⁇ of the above-described parameters, the N similarities ⁇ w i ⁇ described above, and the above-described kernel function k. It is saved as 310.
  • the kernel average construction unit 225 performs a calculation represented by the following equation to obtain a kernel average ⁇ of the posterior distribution.
  • the obtained kernel average ⁇ is stored in the storage device 300 as the processing information 310.
  • the operation of the second sample acquisition unit 226 will be described with reference to FIG.
  • the second sample acquisition unit 226 is also referred to as a “sample acquisition unit from posterior distribution”.
  • the second sample acquisition unit 226 executes the above-described Kernel Herding.
  • the storage device 300 stores the above-described kernel average ⁇ , the above-described kernel function k, and the number T of samples to be taken out as processing information 310.
  • the second sample acquisition unit 226 performs calculation to minimize an error appearing in the following equation to obtain T samples ⁇ t ⁇ (1 ⁇ t ⁇ T) of new parameters.
  • the obtained T samples ⁇ t ⁇ of new parameters are stored in the storage device 300 as processing information 310.
  • the storage device 300 stores T samples ⁇ t ⁇ of the above-described new parameters, the above-mentioned correct answer data y *, and the threshold ⁇ as processing information 310. There is.
  • the sample evaluation unit 227 first selects an appropriate sample ⁇ k from T samples ⁇ t ⁇ of new parameters, and supplies the selected sample ⁇ k to the human flow simulator 210. As a result, the sample evaluation unit 227, to obtain a new population distribution data y k from people flow simulator 210. Subsequently, the sample evaluation unit 22 determines whether or not the following equation is satisfied. That is, the sample evaluation unit 227 determines whether the difference
  • the operation returns to the operation of the first sample acquisition unit 222.
  • the hyper parameter ⁇ which is the input of the first sample evaluation unit 222 is also changed (ARD).
  • the data input unit 221 sets map information and facility information in the flow simulator 210 (step S101).
  • the data input unit 221 gives the human flow simulator 210 a map such as Ginza.
  • the first sample acquisition unit 222 extracts samples from the prior distribution P based on the hyperparameter ⁇ , and acquires N samples ⁇ i ⁇ of parameters to be input to the human flow simulator 210 (step S102). .
  • one parameter ⁇ is composed of the following elements. Considering the group of office workers visiting Ginza, parameter ⁇ is the number of people in the group, the time when they visit Ginza, the time when they leave Ginza, the location information of the store where they stop in Ginza, the stay time at the store, etc. is there. Hyperparameter ⁇ can eliminate extra parameters by adjusting it. For example, this makes it possible to estimate that there are no groups that can only stop at convenience stores in Ginza.
  • the simulation execution unit 223 inputs the parameter sample ⁇ i ⁇ N times into the flow simulator 210 to obtain N population distribution data ⁇ y i ⁇ (step S103).
  • the simulation execution unit 223 performs a simulation on the sample of each one of the parameters obtained in step S102. There is a difference that the number of groups may be 1,000 in one sample of a parameter set and 2,000 in another sample. In step S102, since 1000 parameter sets have been taken, the simulation execution unit 223 performs 1000 simulations. Then, the simulated population distribution data y i is acquired from the human flow simulator 210.
  • Kernel ABC execution unit (similarity calculation unit) 224 performs the calculation of Equation 10 to obtain the similarity between the solution data y * and the simulated population distribution data ⁇ y i ⁇ ⁇ w i ⁇ (Step S104).
  • the Kernel ABC execution unit 224 compares the 1000 simulated data y i in Ginza with the Ginza correct data y * . By this comparison, the similarity w i between the correct answer data y * and the data y i from the simulation is calculated. Based on the similarity w i , the Kernel ABC execution unit 224 determines the plausibility of the sample ⁇ i of the parameter linked to the simulated data.
  • the kernel average construction unit 225 calculates a kernel average ⁇ of the posterior distribution according to the above-mentioned equation 11 (step S105).
  • the kernel average construction unit 225 based on the calculated degree of similarity w i at step S104, with respect to samples theta i of parameters to build the kernel average ⁇ of the posterior distribution. This corresponds to re-adjusting the weights using the similarity w i based on the sample ⁇ i from the prior distribution, and constructing the probability distribution on the reproduction kernel Hilbert space.
  • the second sample acquisition unit 226 performs calculation to minimize the error of the above equation 12, and acquires T samples ⁇ t ⁇ of new parameters (step S106).
  • the second sample acquisition unit 226 performs sampling from the kernel average ⁇ of the posterior distribution. At this time, although it is a sample of the new parameter sampled? T , unlike the sample of the parameter? I acquired in step S102, a sample of the parameter that produces correct data y * is obtained.
  • the sample evaluation unit 227 evaluates T samples ⁇ t ⁇ of new parameters (step S107).
  • the sample evaluation unit 227 appropriately selects one parameter ⁇ k from the parameter set ⁇ t ⁇ (1 ⁇ t ⁇ T) obtained in step 106, and inputs it to the human flow simulator 210. and, to obtain the data y k. Then, the sample evaluation unit 227 evaluates the certainty of the parameter by comparing the acquired data yk with the correct data y * . If the selected parameter ⁇ k is sufficiently probable, the sample evaluation unit 227 sets it as a public flow estimated value in Ginza (step S108).
  • the parameter ⁇ k includes information on what group in Ginza comes from, where to stay, where to return. If the certainty of the parameter ⁇ k is not satisfactory (No in step S107), the flow pattern estimation system 100 repeats the operation from step S103 or step S102 again.
  • the dimensions of the estimation parameter are 40 dimensions by (Start, Goal, Transit ⁇ 2, Stay ⁇ 2, T, N) ⁇ 5 rules.
  • T indicates the departure time of the group
  • N indicates the number of people in the group. It should be noted that in each of these rules, N is different from the number N of samples of the parameter ⁇ , and T is different from the number T of samples of the new parameter.
  • FIG. 16 shows an experimental result of the 4 mesh model of Ginza shown in FIG.
  • the Kernel ABC diagram on the left side shows the change in population distribution in each mesh when only the simulation execution unit 223 and the Kernel ABC execution unit 224 are executed only once.
  • the figure of Kernel Herding (1 st ) in the middle is the one for each mesh when the simulation execution unit 223, the Kernel ABC execution unit 224, the kernel average construction unit 225, and the second sample acquisition unit 226 are executed only once. It shows the change of population distribution.
  • the figure of Kernel Herding (2nd) on the right shows the population distribution in each mesh when the simulation execution unit 223, the Kernel ABC execution unit 224, the kernel average construction unit 225, and the second sample acquisition unit 226 are executed twice. Indicates a change in
  • Kernel ABC + Kernel Herding provides an estimation result having a population distribution closer to correct data than Kernel ABC alone.
  • estimation results having a population distribution closer to correct data can be obtained.
  • each unit of the machine learning device 220 can be realized using a combination of hardware and software.
  • a parameter estimation program is stored as the program 320 in the storage device 300, and each component is used as various means by operating the hardware of the machine learning device 220 based on the parameter estimation program.
  • the parameter estimation program may be recorded on a recording medium and distributed.
  • the parameter estimation program recorded in the recording medium is read into a memory via a wired, wireless, or recording medium itself, and operates a processing unit and the like.
  • examples of the recording medium include an optical disk, a magnetic disk, a semiconductor memory device, a hard disk and the like.
  • the computer for causing the machine learning device 220 to operate is based on the parameter estimation program stored as the program 320 in the storage device 300, the data input unit 221, the first sample acquisition unit 222, a simulation execution unit (function execution unit) 223, a kernel ABC execution unit (similarity calculation unit) 224, a kernel average construction unit 225, a second sample acquisition unit 226, and a sample evaluation unit 227 It is possible.
  • a parameter estimation system for estimating a parameter ⁇ of a function that outputs data y A machine learning device that determines the parameter ⁇ to be set to the function by iterative learning;
  • the machine learning device A first sample acquisition unit for acquiring N (N is an integer of 2 or more) samples ⁇ i (1 ⁇ i ⁇ N) of the parameter ⁇ from the prior distribution P;
  • a function execution unit that obtains N pieces of data y i from the function by sequentially supplying the N samples ⁇ i to the function;
  • a similarity calculation unit that calculates N similarities w i between the N pieces of data y i and correct data y * representing the data using a kernel function k;
  • a kernel average construction unit that constructs a kernel average ⁇ of a posterior distribution from the N similarity w i , the N samples ⁇ i, and the kernel function k;
  • the Kernel ABC execution unit uses the kernel function k, a gram matrix G, and a normalization term ⁇ to calculate the N similarities between the N data y i and the correct data y *.
  • the kernel average construction unit re-adjusts the weights based on the N samples ⁇ i using the N similarity w i and the kernel function k, and reproduces the kernel average ⁇ representing a probability distribution
  • the parameter estimation system according to any one of appendices 1 to 4, which is constructed on a nuclear Hilbert space.
  • a parameter estimation method for determining the parameter ⁇ to be set to the function by iterative learning using a function that outputs data y from a sample of the parameter ⁇ in a parameter estimation system that estimates a parameter ⁇ of a function The first sample acquisition unit acquires N (N is an integer of 2 or more) samples ⁇ i (1 ⁇ i ⁇ N) of the parameter ⁇ from the prior distribution P, The function execution unit sequentially supplies the N samples ⁇ i to the function to obtain N data y i from the function, respectively.
  • a similarity calculation unit calculates N similarities w i between the N pieces of data y i and correct data y * representing the data using a kernel function k
  • a kernel average construction unit constructs a kernel average ⁇ of a posterior distribution from the N similarity degrees w i , the N samples ⁇ i, and the kernel function k
  • the second sample acquiring unit acquires T (T is an integer of 2 or more) new samples ⁇ t (1 ⁇ t ⁇ T) of the parameter ⁇ from the kernel average ⁇ and the kernel function k.
  • the sample evaluation unit estimates and outputs the selected sample ⁇ k as the parameter ⁇ when it is determined that the difference
  • Characteristic parameter estimation method
  • a parameter estimation system for estimating a parameter ⁇ of a function
  • parameter estimation that causes a computer to determine the parameter ⁇ to be set to the function by iterative learning using the function that outputs data y from a sample of the parameter ⁇
  • the parameter estimation program A first sample acquisition procedure for acquiring N (N is an integer of 2 or more) samples ⁇ i (1 ⁇ i ⁇ N) of the parameter ⁇ from the prior distribution P;
  • a function execution procedure for acquiring data y i from N certain distributions from the function by sequentially supplying the N samples ⁇ i to the function;
  • a similarity calculation procedure for calculating N similarities w i between the N data y i and correct data y * representing the data using a kernel function k,
  • a kernel average construction procedure for constructing a kernel average ⁇ of a posterior distribution from the N similarities w i , the N samples ⁇ i, and the kernel function k;
  • a second sample acquisition procedure for acquiring N (N is an integer of 2
  • the invention is applicable to the field of estimating parameters by maximum likelihood when the function can not be evaluated.
  • the present invention is also applicable to the field of estimating the parameters of a model that represents the variance of a financial time series, the parameters of a model that describes the time evolution of the number of organisms, and the parameters of a model that realizes genetic diversity. It is applicable.
  • 100 people flow pattern estimation system (parameter estimation system) 200 data processor 210 human flow simulator (function) 220 machine learning device 221 data input unit 222 first sample acquisition unit (sample acquisition unit from prior distribution) 223 Simulation Execution Unit (Function Execution Unit) 224 Kernel ABC execution unit (similarity calculation unit) 225 kernel average construction unit 226 second sample acquisition unit (sample acquisition unit from posterior distribution) 227 sample evaluation unit 300 storage device 310 processing information 320 program 400 input device 500 output device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Complex Calculations (AREA)

Abstract

第1のサンプル取得部は事前分布からパラメータのサンプルを取得する。関数実行部はサンプルを関数に供給してある分布からデータを取得する。類似度算出部はカーネル関数を用いてデータと正解データとの間の類似度を算出する。カーネル平均構築部は類似度とサンプルとカーネル関数とから事後分布のカーネル平均を構築する。第2のサンプル取得部はカーネル平均とカーネル関数とからパラメータの新たなサンプルを取得する。サンプル評価部は、新たなサンプルから選択した1つのサンプルを関数に供給することによって得られた新たなデータと正解データとの間の差分が、所定の閾値より小さいか否かを判断する。サンプル評価部は、差分が所定の閾値より小さいと判断した場合に、選択したサンプルを、パラメータとして推定する。 本発明により、関数の高次元のパラメータ推定が可能となり、計算時間を減少することが可能となる。

Description

パラメータ推定システム、パラメータ推定方法およびパラメータ推定プログラム記録媒体
 本発明は、関数のパラメータを推定するパラメータ推定システム、パラメータ推定方法およびパラメータ推定プログラム記録媒体に関する。
 関数のパラメータを推定したいという要望がある。例えば、パラメータが与えられたある地域における人口分布(人流パターン)であって、関数が人流シミュレータであったとする。その場合、その人流パターンにもっとも近いデータを生み出す、人流シミュレータのパラメータを求めたいという要望がある。ここで、関数が人流シミュレータである場合、「パラメータ」とは、その人流パターンの「集団の人数、どこから来たか(出発地点)、何時に来たか(出発時刻)、どこから帰っていくのか(最終到達地点)、どこを経由するのか(経由地)、経由値の滞在時間」から成る。尚、出発地点と最終到達地点とは同じであってもよい。
 そのような関数のパラメータを求める手法として、種々の手法が知られている。
 例えば、近似ベイズ計算法(ABC:Approximate Bayesian Computation)が知られている。ABCとは、モンテカルロ法の一種で、ランダムに選んだパタメータの値から、パフォーマンスの高いパラメータを順次求めていく方法である。例えば、最もシンプルなタイプのABCでは、関数から疑似データを生成し、その擬似データが現実のデータと近ければ、関数に使用されたパラメータを正しいものとして認める。
 ABCでは、事前知識に基づいてサンプリングを決めてシミュレーションを行う。そして、ABCでは、結果(擬似データ)が現実のデータにうまく適合するものだけをフィルタリングしている。
 しかしながら、ABCでは、パラメータが高次元であるとなかなか適合しないという問題がある。そのため、ABCでは、多数のサンプルが必要となる。
 Kernel ABCは、全サンプルを活用して、適合度で重み付けしたカーネル平均(kernel mean)として事後分布を表現する(非特許文献1参照)。多くの場合、事後分布からサンプリングを行いたいという動機が存在する。しかしながら、事後分布のkernel meanからのサンプリングは容易ではない。
 Kernel Herdingは、事後分布のkernel meanからのサンプリングを可能にする。特に、Kernel Herdingによるサンプリングは分布の特徴を少ない数でうまくカバーでき、スーパサンプルと呼ばれる。
 Automatic Relevance Determination (ARD)は、与えられたパラメータ集合から重要なものを残し、冗長性を取り除く有効なツールである。
 一方、パラメータとして人流パターンを推定する方法が種々提案されている。
 例えば、特許文献1は、都市の効率的な運用を支援する人流分析システムを開示している。特許文献1に開示された人流分析システムは、地域指定部と、人流算出部と、表示制御部とを備える。地域指定部は、地図上の地域を指定する。人流算出部は、時刻および位置の情報を含んだ複数の人流情報に基づき、地域指定部の指定地域に関わる人流を算出する。表示制御部は、表示部に表示された地図上に、人流算出部が算出した主たる人流の動線を表示させる。人流分析システムは、シミュレーション部を備える。シミュレーション部は、人流をシミュレーションによって算出するものであり、例えば、人流データベースに基づき、新たにエージェントを生成した場合の人流を算出する。ここでエージェントとは、環境の変化に基づく人流や交通流の変化を発生させるため、実際の環境の代わりに設定される仮想的な存在であり、例えば居住者の変化や施設の開設や閉鎖などをいう。
 また特許文献2は、時間的及び空間的相関を持つ時空間変数の値を精度良く予測することができる、時空間変数予測装置を開示している。特許文献2では、時空間変数の時系列データとして、人口分布、人流・交通流の速度・向き、金やダイヤモンドなど鉱物資源の埋蔵量、降水量などの気象データ、土地価格などを想定している。特許文献2では、実施の形態として、人口密度分布の時系列データが観測データとして与えられた条件の下で、未観測地点あるいは未来の時空間変数分布を推定・予測している。
 特許文献2に開示された時空間変数予測装置は学習部を備える。学習部は、人口密度情報記憶部に格納された観測データの集合に基づいて、観察データ同士の類似度を定義する関数であるカーネル関数の各々のハイパーパラメータと、観測データの各々に対する、複数のガウス過程の各々の寄与度を表すパラメータである負担率とを学習する。学習部は、負担率推定部と、ガウス過程パラメータ推定部と、反復判定部とを含む。負担率推定部は、観測データの集合と、複数のガウス過程のカーネル関数の各々のハイパーパラメータとに基づいて、複数のガウス過程からなる複数のユニットの各々の寄与度を表すパラメータであるユニット負担率と、複数のガウス過程の各々の寄与度を表すパラメータである負担率を推定する。ガウスパラメータ推定部は、観測データの集合と、複数のユニットの各々のユニット負担率と、複数のガウス過程の各々の負担率とに基づいて、複数のガウス過程の各々に対し、ガウス過程のカーネル関数の各々のハイパーパラメータを推定する。反復判定部は、予め定められた反復終了条件を満たすまで、負担率推定部による推定、およびガウス過程パラメータ推定部による推定を繰り返す。
 さらに特許文献3は、大規模な人流分布推定処理をより効率的に実行する人流調査支援システムを開示している。この特許文献3に開示された人流調査支援システムでは、分散処理プラットフォームを利用して人流の変化を表現する人流モデルにもとづく人流分布の仮説を大量生成している。そして、これらの各仮説と計測データとの適合性を評価することにより、計測データと矛盾しない人流分布を算出している。この際、人流モデルにもとづく人流分布の時間発展処理を類似する人流モデルごとに計算することで、計算を並列化しかつ重複計算を排除している。この人流モデル毎の処理並列化によって計測データとの時空間索引によって実測値との評価を高速化している。
 特許文献3に開示された人流調査支援システムは、複数のコンピュータに計算を分散する分散処理プラットフォームと、人流分布の仮説データから人流分布を推定した人流分布データを配信する機能を持つ人流分布配信システムと、人流のリアルタイムの計測データを計測する人流計測器とを備える。特許文献3において、分散処理プラットフォームは、人流全数調査データのうち現在時刻と一致するもの全体を所定数分複製し、各仮説の各人物の位置をランダムに少しずらし、人流仮説データとしている。
 また、特許文献4は、実店舗における商品の購入を支援する商品情報提供システムを開示している。特許文献4では、カメラもしくはGPS(Global Positioning System)情報から動線を分析・推定することで、来訪者の興味を把握し、推薦商品を決定している。
 非特許文献2は、モバイル空間統計を活用して、250mメッシュ単位でエリア間での回遊行動を分析する、技術的思想を開示している。
 非特許文献3は、アンケート情報を基にして、階層的な回遊モデルで立ち寄り場所を確率的に推定する、技術的思想を開示している。
国際公開第2016/067369号 特開2017-033198号公報 特開2014-112292号公報 特開2015-022354号公報
Shigeki Nakagome, Shuhei Mano and Kenji Fukumizu (2013) Kernel Approximate Bayesian Computation in Population Genetic Inferences, Statistical Applications in Genetics and Molecular Biology, Volume 12, Issue 6, Pages 667-678 都心の歩行者回遊分析(その2)~都心滞在者の属性について~、名古屋市都市センタ 研究報告書、No. 117 2015. まちなか回遊行動の詳細分析と政策シミュレーションのための予測モデル、土木学会論文集、Vol. 71, No.5 323-335, 2015
 先行技術(ABC)には、次に述べるような課題がある。
 第1の課題は、推定すべき関数のパラメータ数が多いと、パラメータの精度が落ちることである。
 また、ABCでは、パラメータ候補について、非効率に探索している。したがって、第2の課題は、あまり意味のないパラメータ候補についてもシミュレーションを行うので、無駄な計算時間がかかってしまうことである。
 さらに、第3の課題は、実際には必要のないパラメータを間違った知識のもとに探索したとき、それを無条件に受け入れてしまうことである。
 前述した先行技術(特許文献1~4、非特許文献1~3)には、それぞれ、次に述べるような問題がある。
 特許文献1は、単に、人流データベースに基づき、新たにエージェントを生成した場合の人流を算出する技術的思想を開示しているに過ぎない。従って、特許文献1では、各個人の外出行動を、予め人流データベースに格納しておく必要がある。換言すれば、特許文献1は、そのような予め各個人の外出行動が不明である場合には成り立たない技術的思想である。
 特許文献2は、単に、人口密度分布の時系列データが観測データとして与えられた条件の下で、未観測地点あるいは未来の時空間変数分布を推定・予測する技術的思想を開示しているに過ぎない。また、特許文献2は、時系列データとして人流の速度・向きを対象としたものに適用することができることを記載しているが、具体的にどのように人流の速度・向きに適用するかについては、何ら開示も示唆もしていない。
 特許文献3では、分散処理プラットフォームは、人流全数調査データのうち現在時刻と一致するもの全体を所定数分複製し、各仮説の各人物の位置をランダムに少しずらし、人流仮説データとしている。そのため、各人物ごとに膨大なデータが必要となる。
 特許文献4では、カメラやGPSの情報を活用しているので、個人の行動軌跡を取得することができる。しかしながら、特許文献4の技術では、個人特定につながるため、プラバシーの侵害に当たる可能性が高い。
 非特許文献1に開示されたKernel ABCでは、前述したように、kernel meanを使って再度サンプリングできないという問題がある。すなわち、漸近手法を完成できない。
 非特許文献2では、モバイル空間統計等の人口分布情報を用いているので、プライバシーを保護することが可能である。しかしながら、非特許文献2の開示する方法は、分析粒度が大まかであるため、細かな回遊行動を推定することが困難である。
 非特許文献3に開示された方法では、確率的な行動モデルに基づき、人口分布とアンケート情報を基に回遊行動を分析している。しかしながら、そのような分析方法では、詳細な施設間の関連性を把握することができないため、その分析結果を街作りに活用するには不十分な情報となってしまう。
 本発明の目的は、上述した課題を解決する、パラメータ推定システムおよびパラメータ推定方法を提供することにある。
 本発明の1つの態様として、パラメータ推定システムは、データyを出力する関数のパラメータθを推定するパターン推定システムであって、前記関数に設定する前記パラメータθを、繰り返し学習により決定する機械学習装置と、を備え、前記機械学習装置は、事前分布Pから前記パラメータθのN(Nは2以上の整数)個のサンプルθ(1≦i≦N)を取得する第1のサンプル取得部と;前記N個のサンプルθを順次前記関数に供給することで、それぞれ、前記関数からN個のデータyを取得する関数実行部と;カーネル関数kを用いて、前記N個のデータyと正解データyとの間のN個の類似度wを算出する類似度算出部と;該N個の類似度wと、前記N個のサンプルθと、前記カーネル関数kとから、事後分布のカーネル平均μを構築するカーネル平均構築部と;前記カーネル平均μと前記カーネル関数kとから、パラメータθのT(Tは2以上の整数)個の新たなサンプルθ(1≦t≦T)を取得する第2のサンプル取得部と;該T個の新たなサンプルθから選択した1つのサンプルθを前記関数に供給することによって前記関数から得られた新たなデータyと前記正解データyとの間の差分||y-y||が、所定の閾値εより小さいか否かを判断するサンプル評価部と;を備え、前記サンプル評価部は、前記差分||y-y||が前記所定の閾値εより小さいと判断した場合に、前記選択したサンプルθを、前記パラメータθとして推定し、出力する。
 本発明の他の態様として、パターン推定方法は、関数のパラメータθを推定するパラメータ推定システムにおける、前記パラメータθのサンプルから、データyを出力する前記関数を用いて、前記関数に設定する前記パラメータθを、繰り返し学習により決定するパラメータ推定方法であって、第1のサンプル取得部が、事前分布Pから前記パラメータθのN(Nは2以上の整数)個のサンプルθ(1≦i≦N)を取得し;関数実行部が、前記N個のサンプルθを順次前記関数に供給することで、それぞれ、前記関数からN個のデータyを取得し;類似度算出部が、カーネル関数kを用いて、前記N個のデータyとデータを表す正解データyとの間のN個の類似度wを算出し;カーネル平均構築部が、前記N個の類似度wと、前記N個のサンプルθと、前記カーネル関数kとから、事後分布のカーネル平均μを構築し;第2のサンプル取得部が、前記カーネル平均μと前記カーネル関数kとから、パラメータθのT(Tは2以上の整数)個の新たなサンプルθ(1≦t≦T)を取得し;サンプル評価部が、前記T個の新たなサンプルθから選択した1つのサンプルθを前記関数に供給することによって前記関数から得られた新たなデータyと前記正解データyとの間の差分||y-y||が、所定の閾値εより小さいか否かを判断し;前記サンプル評価部は、前記差分||y-y||が前記所定の閾値εより小さいと判断した場合に、前記選択したサンプルθを、前記パラメータθとして推定し、出力する。
 本発明によれば、関数の高次元のパラメータ推定が可能になり、計算時間を減少することが可能となる。
本発明の一実施形態に係る人流パターン推定システムの構成を示すブロック図である。 正解データを示す人口時間分布データの一例を示す図である。 図1に示した人流パターン推定システムに使用される、人流シミュレータに組み込まれる(設定される)、地図情報および施設情報(地図/建物データ)の一例を示す図である。 人流パターンの一例を示す図である。 図1に示した人流パターン推定システムに使用される、機械学習装置で実現される主な処理部を示すブロック図である。 図5に示した機械学習装置に使用される、データ入力部の動作を説明するための図である。 図5に示した機械学習装置に使用される、第1のサンプル取得部の動作を説明するための図である。 図5に示した機械学習装置に使用される、シミュレーション実行部の動作を説明するための図である。 図5に示した機械学習装置に使用される、Kernel ABC 実行部(類似度算出部)の動作を説明するための図である。 図5に示した機械学習装置に使用される、カーネル平均構築部の動作を説明するための図である。 図5に示した機械学習装置に使用される、第2のサンプル取得部の動作を説明するための図である。 図5に示した機械学習装置に使用される、サンプル評価部の動作を説明するための図である。 図1に示した人流パターン推定システムの動作の一実施例について説明するためのフローチャートである。 図1に示した人流パターン推定システムを実行した場合の実験に使用した、4meshモデルの一例を示す図である。 図1に示した人流パターン推定システムを実行した場合の実験に設定した、5つのルールの一例を示す図である。 図14に示した4meshモデルの実験結果を示す図である。
 まず、本発明の理解を容易にするために、本明細書中で使用する用語の意味に関して簡略的に説明する。
 近似ベイズ計算法(ABC:Approximate Bayesian Computation)とは、モンテカルロ法の一種で、ランダムに選んだパラメータの値から、パフォーマンスの高いパラメータを順次求めていく方法である。例えば、ABCでは、関数から疑似データを生成し、その擬似データが現実のデータと近ければ、関数に使用されたパラメータを正しいものとして認める。
 換言すれば、ABCは、観測データと関数から得られたデータの差異について拒絶アルゴリズム法を適用する、ベイズ推定のための尤度無しの方法である。
 Kernel ABCは、全サンプルを活用して、適合度で重み付けしたカーネル平均(kernel mean)として分布を表現する。
 カーネル法は、高次元空間への写像を構成する方法論である。カーネル法は、データを高次元の再生核ヒルベルト空間(一般には無限次元)へ写像し、解析しやすいデータに変換する。ヒルベルト空間(Hilbert space)とは、ベクトル空間であり、内積が備わっており、完備であるような集合である。
 集合Ω上の関数を要素に持つヒルベルト空間Hが再生核ヒルベルト空間(RKHR:reproducing kernel Hilbert space)であるとは、任意のx∈Ωに対してφ∈Hがあって、任意のf∈Hに対し、
      <f,φ> = f(x)
が成り立つことをいう。φのことを再生核という。
 Kernel Herdingは、kernel meanの分布の特徴をうまく利用し、カブリの少ない代表点をスーパサンプルとして選択する。つまり、Kernel Herdingは、少ないサンプル点で、適切な設定の分布を表現する。
 ARDでは、ハイパーパラメータを調整することにより、事前分布からのサンプルでパラメータのほとんどの値が0を取ることで、余分なものを削除している。通常、これはディリクレ分布やベータ分布を事前分布として導入することにより達成される。ディリクレ分布の例で言えば、それに付随するハイパーパラメータの値を小さくとると、分布からのサンプルがほとんど0に近い値を取り、少ないパラメータで現象を説明しようとする力が働く。
 別言すると、パラメータの冗長性をコントロールしたい場合には、パラメータのサンプルをディリクレ分布もしくはベータ分布から取得する。ディリクレ分布、ベータ分布にはパラメータの冗長性をコントロールするハイパーパラメータが存在する。そのハイパーパラメータの値を変更することにより、パラメータのサンプルがもつ冗長性を調整する。例えば、冗長性をなくすようにハイパーパラメータを設定すると、サンプルの要素のごく少数のみが非0の値を取り、多くの要素は0の値を取る。これにより、0の値を取った要素は実質影響を持たない。こうして、得られた事後分布のカーネル平均は冗長性が非常に減少したものとなる。
[関連技術]
 本発明の理解を容易にするために、関連技術とその問題点について説明する。
 問題の事実(真実)が与えられたときに、その事実(真実)に十分に近接したデータを生成する、関数のパラメータの集合を知りたいとする。ベイズ規則を適用したいが、関数は評価されえない。しかしながら、関数の尤度p(y|θ)から事前確率π(θ)に基づいて、次の式により、サンプリングは可能である。
Figure JPOXMLDOC01-appb-M000001
 そこで、ABCのフレームワークを使用することが考えられる。表1に、ABCのアルゴリズムを示す。
Figure JPOXMLDOC01-appb-T000002
 しかしながら、ABCには、次のような課題がある。
 第1の課題は、データの次元が高いと、パラメータが採択基準(tolerance level)をなかなか満たさず、現実的な時間でアルゴリズムが終了しないことである。
 第2の課題は、パラメータの次元が高いと、ABCの性能はすぐに低下することである。
 第3の課題は、関数を評価するのに時間がかかるので、実行数を省けないことである。
[本発明に係るアルゴリズムの概要説明]
 本発明では、第1および第2の課題を解決するためにKernel ABCを使用し、第3の課題を解決するためにKernel Herdingを使用している。
 本発明のアルゴリズムの概要は次の通りである。
A1.事前分布からパラメータの組をN回取り出す。
A2.N個のパラメータの組を使用して関数からデータをN回生成する。
A3.Kernel ABC
・事後分布のカーネル平均を計算することによって、観測データに近接するデータを生成す関数のパラメータを推察する。
A4.Kernel Herding
・次の繰り返しのために事後分布のカーネル平均から有益なサンプルをT回取り出す。
A5.収束するためにA2.から繰り返す。
 次に、Kernel ABCについて説明する。
Kernel ABCは、Kernelベイズ規則に基づいており、ベイズ規則のノンパラメトリックな実現である。
B1.事前分布からパラメータの組をN回取り出す。
B2.パラメータの組を関数にN回入力することによって、N個の関数を評価したデータを取得する。
B3.真のデータと各関数を評価したデータとの間の類似度(重み)を計算する。
B4.B1.でのパラメータの組をそれらの類似度(重み)で平均化することによって、下記数式に従って、パラメータ事後分布のカーネル平均を計算する。
Figure JPOXMLDOC01-appb-M000003
 次に、カーネル平均について説明する。
 Xを測度空間Ω上の値を取るランダム変数とし、kを測度空間Ω上の正定値カーネルであり、Hが正定値カーネルkによって規定された再生核ヒルベルト空間(RKHS:reproducing kernel Hilbert space)であるとする。このとき、カーネル平均は、次式で求められる。
Figure JPOXMLDOC01-appb-M000004
 特性カーネルによって、確率分布を再生核ヒルベルト空間に一意に埋め込むことができる。特性カーネルは、例えば、ガウスカーネルやラプラスカーネルなどである。
 次に、カーネル平均とカーネルベイズ規則を使用することの利点について説明する。変数間のパラメトリックモデルや、密度関数を想定することなく、ベイズ規則をノンパラメトリックに適用できる。したがって、確率分布を表すカーネル平均は、データからノンパラメトリックに推定される。
 次に、Kernel Herdingについて説明する。
 Kernel ABCの出力は、再生核ヒルベルト空間内の事後分布のカーネル平均であるが、それ自身事後分布ではない。したがって、マルコフ連鎖モンテカルロ法に代表される事後分布からのサンプリング手法を使うことができない。しかし、Kernel Herdingは、事後分布からのサンプルを可能とする。
 更に、Kernel Herdingからのサンプルは、分布の特徴を上手く反映したスーパサンプルと呼ばれる。
 Kernel Herdingは、次の誤差を貪欲に最小化することで、サンプリングを行っていると解釈できる。
Figure JPOXMLDOC01-appb-M000005
 Kernel Herdingは、分布において密度が高い領域からサンプルを取る。つまり、分布のモードを探索すると考えられる。また、一度サンプルが取られた領域からは離れて、次のサンプルが取得される。
 以上を要約すると、次のようになる。
 Kernel ABCは、比較的高い次元のパラメータを処理でき、比較的高い次元のデータ(関数を評価したデータ/問題の真のデータ)を処理でき、扱いやすい計算的な複雑性を持つ。
 Kernel Herdingは、必要とされる関数を評価する回数を削減することができる。
[発明の概要の説明]
 以下では、関数が人流シミュレータである場合を例に挙げて説明するが、本発明は関数が人流シミュレータである場合に限定されないのは勿論である。人流シミュレータへの適用についてそもそも、モバイル空間統計のような、人口分布の時系列に関しての人流シミュレータのデータ同化はこれまで試みられていない。そのときに、以下の課題があり、本発明に係る提案手法ではそれに対処している。
 1)人流シミュレータはマルチエージェントシミュレータであり、多くの場合シミュレーションに非常に計算時間がかかる。
 これに対して、本提案手法では、Kernel herding を用いることにより、より少ない回数のシミュレーションでデータ同化を達成できる。これは、kernel herding が効率的により多くの情報を持つ重要なパラメータのサンプルを取得するからである。
 また、これについて、O(1/T) で誤差が収束していく。一方、モンテカルロ法などによるパラメータのサンプル取得では、より遅いO(1/√T) である。
 2)人流シミュレータではないが、他のデータ同化に関して、ABCなどを使ったベイズ推定では、パラメータの次元が高次元の際に、上手く働かないことが分かっている。
 これに対して、本提案手法では、Kernel ABC が、再生核ヒルベルト空間でベイズ推定を行うことにより、高次元パラメータに対応している。
 3)事前知識が間違っていた場合に、ある地域において存在しない人流パターンを想定して、事前分布を構築してしまうことがある。例えば、銀座において、吉野家で昼食をとり、ロレックスで時計を買い、フェラーリで車を買い、松屋で夜ご飯を食べるなどの人流パターンである。関連技術では、このような存在すると考えにくい人流パターンをアルゴリズムで自動的に削除する仕組みはなかった。
 これに対して、本提案手法では、ARD により、そういったパターンを削除するスパース性が導入されている。
 アルゴリズムについて、本提案手法は、関数が評価できない場合に、点推定を行うことを可能としている。
 関連技術では、関数が評価できない場合にベイズ推定を行うことはできた(ABCなど)。つまり、それによって正しい事後分布を求めることができた。しかしながら、ABCでは、真値が一点ある状況での点推定を、関数が評価できない場合に行うことはできなかった。
 これに対して、本提案手法では、Kernel ABC + Kernel Herding で取得された事後分布からのサンプルを、事前分布からのサンプルとみて、Kernel ABC+ Kernel herding を繰り返し適用することで、点推定を達成している。
 一度目の適用では以下の数式で表される事後分布がえられる。
Figure JPOXMLDOC01-appb-M000006
 このP(θ|y) を事前分布として、二度目の適用をすると、以下の数式が得られる。
Figure JPOXMLDOC01-appb-M000007
 これは、
Figure JPOXMLDOC01-appb-M000008
ということであり、N回目の適用では、
Figure JPOXMLDOC01-appb-M000009
となる。つまり、関数l(y|θ) がN乗され、影響が強くなり、一方で事前分布π(θ) の影響が少なくなっている。これを無限回繰り返したあと、P(θ|y)を最大化するθを取得することは、π(θ)の影響が消えているため、l(y|θ)を最大化するθを取得することと一致すると考えられる。つまり、無限回のパラメータに関するベイズ推定を同一のデータに対して繰り返し、P(θ|y)を最大化するθを取得することは点推定の最尤法と一致すると考えることができる。これを踏まえ、関数が評価できないときにベイズ推定を行う手法であるABCを使うことで、関数なしの最尤法を実行できる。これをRecursive ABC-MLEと名づけた。このアルゴリズムの内部でkernel ABCを本明細書では用いているが、関数無しに事後分布を求めることができる手法であればどれでも構わない。また、このアルゴリズム内部でP(θ|y)を最大化するθを取得することは、Kernel Herdingのmode-seeking(最頻値追跡)という特性により可能となっている。しかしながら、取得する手法は、必ずしもKernel Herdingである必要はなく、最頻値をサンプリングする特性のある手法であればよい。
 Kernel Herding が、事後分布から効率的により多くの情報を持つ重要なパラメータのサンプルを取得する。これについて、O(1/T ) で誤差が収束していく。
 一方、上記のベイズ推定の繰り返しを、関連技術の手法のマルコフ連鎖モンテカルロ法などによるパラメータのサンプル取得で行った場合は、より遅いO(1/√T) である。
 またこのアルゴリズムの本質は、関数が評価できない場合に最尤法を可能にすることにある。このアルゴリズムの適用先としては、後で詳述する人流パターンを推定することのみでなく、次の関数のパラメータを推定するものも考えられる。
1)株価など金融時系列の価格変動の分散(ボラティリティ)を適切にモデル化するためによく使われるアルファ定常分布のパラメータをデータに合わせて推定すること。
2)ハエなど、生物の個体数の時間発展を記述するモデルのパラメータをデータに合わせて推定すること。
3)集団遺伝学において、与えられたデータの遺伝的多様性を実現するようなモデルのパラメータ(突然変異率など)を推定すること。
 尚、このアルゴリズムは、ソフトウェア関連発明であるとしても、計算時間を減少できる効果を奏するので、コンピュータ関連技術を改善(向上)するものであり、抽象概念には該当しない。
[実施の形態]
 以下に述べる実施の形態では、本発明を人流パターン推定システムに適用した場合について説明するが、上述したように、本発明は、一般的に関数のパラメータを推定するパラメータ推定システムにも適用可能である。図1は、本発明の一実施形態に係る人流パターン推定システム100の構成を示すブロック図である。
 図示の人流パターン推定システム100は、データを処理するデータ処理装置200と、後述するプログラムやデータを記憶する記憶装置300と、データを入力する入力装置400と、データを出力する出力装置500と、を備えている。
 出力装置500は、LCD(Liquid Crystal Display)やPDP(Plasma Display Panel)などの表示装置やプリンタからなる。出力装置500は、データ処理装置200からの指示に応じて、操作メニューなどの各種情報を表示したり、最終結果を印字出力する機能を有する。
 記憶装置300は、ハードディスクやリードオンリメモリ(ROM)およびランダムアクセスメモリ(RAM)などのメモリからなる。記憶装置300は、データ処理装置200における各種処理に必要な処理情報310やプログラム320を記憶する機能を有する。
 データ処理装置200は、MPU(micro processing unit)などのマイクロプロセッサや中央処理装置(CPU)からなる。データ処理装置200は、記憶装置300からプログラム320を読み込んで、プログラム320に従ってデータを処理する各種処理部を実現する機能を有する。
 データ処理装置200は、人流シミュレータ210と機械学習装置220とを備える。本実施の形態では、関数が人流シミュレータ210である場合を例に挙げて説明するが、前述したように、本発明は、一般的に、他の関数にも適用可能である。
 図示の人流パターン推定システム100において、アルゴリズムに必要なデータや、装置モバイル空間統計のような、人流を推定したい地域、時刻においての人口分布のデータが与えられているものとする。これを正解データyと呼ぶ。
 図2は、正解データyを示す人口時間分布データの一例を示す図である。人口時間分布データは、時刻T=・・・、t-1,t、t+1、t+2、・・・ごとの、人口分布を示している。時刻Tは、例えば、30分毎の時刻である。このような人口時間分布データは、例えば、統計情報やSNS(Social Networking Service)で取得することが可能である。ここで、SNSとは、人と人との社会的な繋がりを維持・促進する様々な機能を提供する、会員制のオンラインサービスである。記憶装置300は、処理情報310として正解データyを保存している。
 人流パターン推定システム100は、街中における人流グループ単位での動きである人流パターンを推定するシステムである。上述したように、本発明は、一般的に、関数のパラメータを推定するパラメータ推定システムに適用可能である。
 人流シミュレータ210は、人流パターンを、任意の地域、時刻においてシミュレーションすることができる。
 詳述すると、人流シミュレータ210には、各地点、各時刻での人口分布の情報および前記街中の地図情報や施設情報が組み込こまれる。
 図3は、人流シミュレータ210に組み込まれる(設定される)、地図情報および施設情報(地図/建物データ)の一例を示す図である。記憶装置300は、処理情報310として地図情報および施設情報を保存している。これら地図情報および施設情報は、後述するように、人流シミュレータ210に設定される。
 人流シミュレータ210は、後述するように機械学習装置220から供給される、人流パターンを規定するパラメータθのサンプルから、各地点、各時刻での人口分布データyを出力する。ここで、人流シミュレータ210から得られた人口分布データyは、通常、正解データyには一致しないことに注意されたい。何故なら、正解データyを満たす人流パターンを誰も知らないからである。一般的に、本発明に係る関数は、パラメータθのサンプルから、データyを出力する。
 図4に、人流パターンの一例を示す。図4に示す人流パターンは、地点A、B、C、D、E、F、Gにおける、時刻9:00以降の人流パターンを示している。
 パラメータθは、各集団の、出発点、出発時刻、経由点、滞在時間、目的地、および人数の情報を含む。
 機械学習装置220は、人流シミュレータ210に設定するパラメータθを、後述するように、繰り返し学習により決定する。
 図5は、機械学習装置200で実現される主な処理部を示すブロック図である。
 機械学習装置200は、データ入力部221と、第1のサンプル取得部222と、シミュレーション実行部223と、Kernel ABC実行部224と、カーネル平均構築部225と、第2のサンプル取得部226と、サンプル評価部227とから成る。なお、Kernel ABC実行部224は、後述するように類似度算出部として働く。
 次に、図6乃至図12を参照して、各処理部の動作について説明する。
 図6を参照して、データ入力部221の動作について説明する。
 図6に示されるように、データ入力部221は、人流シミュレータ210に人流パターンを推定したい地域の情報を入力する。詳述すると、記憶装置300は、処理情報310に、前述したように、地域の情報として地図情報や施設情報を保存している。データ入力部221は、記憶装置300から地図情報と施設情報とを読み出して、それら情報を人流シミュレータ210に入力(設定)する。
 尚、本例では、データ入力部221は、記憶装置300に保存されている地図情報および施設情報を読み出して、人流シミュレータ210に設定しているが、入力装置400から供給された地図情報および施設情報を、直接、人流シミュレータ210に設定してもよい。
 図7を参照して、第1のサンプル取得部222の動作について説明する。第1のサンプル取得部222は、「事前分布からのサンプル取得部」とも呼ばれる。この第1のサンプル取得部22には、ARDが関わっている。
 図7に示されるように、記憶装置300には、処理情報310として、事前分布Pと、その事前分布Pのハイパーパラメータηと、事前分布Pからのサンプルの個数Nとが格納されている。事前分布Pは、任意のパラメータサンプルの合計が1となるような、mixture モデル、もしくは解の構造がmixture モデルと同じ場合を反映できる適当な事前分布である。
 この事前分布Pのハイパーパラメータηを調整することにより、このアルゴリズムの最終的な解にスパース性を入れるかどうかが決定される。
 第1のサンプル取得部222は、下記の数式のように、事前分布からサンプルを取り出す。
Figure JPOXMLDOC01-appb-M000010
 したがって、第1のサンプル取得部222は、人流シミュレータ210へのパラメータのN個のサンプル{θ}(i=1~N)を取得する。この取得したパラメータのN個のサンプル{θ}は、処理情報310として記憶装置300に保存される。
 図8を参照して、シミュレーション実行部223の動作について説明する。
 図8に示されるように、記憶装置300は、前述したサンプルの個数Nと、パラメータのN個のサンプル{θ}と、を処理情報310として保存している。
 シミュレーション実行部223は、人流シミュレータ310にパラメータのサンプル{θ}をN 回入力して、人流シミュレータ310からN個の人口分布データ{y}(1≦i≦)を得る。この得られたN個の人口分布データ{yi}は、処理情報310として記憶装置300に保存される。
 図9を参照して、Kernel ABC 実行部(類似度算出部)224の動作について説明する。
 図9に示されるように、記憶装置300は、前述したN個の人口分布データ{y}と、前述した正解データyと、カーネル関数kと、正則化項δと、を処理情報310として保存している。
 Kernel ABC 実行部224は、下記の数式で表される計算を行い、正解データと各シミュレーションされた人口分布データ{y}との類似度{w}(1≦i≦N)を得る。
Figure JPOXMLDOC01-appb-M000011
ここで、Gはグラム行列を示し、Iは単位行列を示す。この得られたN個の類似度{w}は、処理情報310として記憶装置300に保存される。
 なお、本例では、類似度算出部として、Kernel ABCアルゴリズムにより前記類似度wを算出するKernel ABC 実行部224を用いているが、本発明はこれに限られない。すなわち、類似度算出部で使用するアルゴリズムは、後述する事後分布のカーネル平均が構築できるようにN個の類似度{w}を出力するアルゴリズムなら何でも構わない。
 図10を参照して、カーネル平均構築部225の動作について説明する。
 図10に示されるように、記憶装置300は、前述したパラメータのN個のサンプル{θ}と、前述したN個の類似度{w}と、前述したカーネル関数kと、を処理情報310として保存している。
 カーネル平均構築部225は、下記の数式で表される計算を行ない、事後分布のカーネル平均μを得る。
Figure JPOXMLDOC01-appb-M000012
この得られたカーネル平均μは、処理情報310として記憶装置300に保存される。
 図11を参照して、第2のサンプル取得部226の動作について説明する。第2のサンプル取得部226は、「事後分布からのサンプル取得部」とも呼ばれる。この第2のサンプル取得部226は、上述したKernel Herdingを実行する。
 図11に示されるように、記憶装置300には、前述したカーネル平均μと、前述したカーネル関数kと、取り出すサンプル数Tと、を処理情報310として保存している。
 第2のサンプル取得部226は、以下の数式で現れる誤差を最小化する計算を行って、新たなパラメータのT個のサンプル{θ}(1≦t≦T)を得る。
Figure JPOXMLDOC01-appb-M000013
この得られた新たなパラメータのT個のサンプル{θ}は、処理情報310として記憶装置300に保存される。
 最後に、図12を参照して、サンプル評価部227の動作について説明する。
 図12に示されるように、記憶装置300には、前述した新たなパラメータのT個のサンプル{θ}と、前述した正解データyと、閾値εと、を処理情報310として保存している。
 サンプル評価部227は、先ず、新たなパラメータのT個のサンプル{θ}から適当なサンプルθを選び、その選択したサンプルθを人流シミュレータ210へ供給する。それにより、サンプル評価部227は、人流シミュレータ210から新たな人口分布データyを取得する。引き続いて、サンプル評価部22は、下記の式が満たされているか否かを判断する。
Figure JPOXMLDOC01-appb-M000014
すなわち、サンプル評価部227は、新たな人口分布データyと正解データyとの差分||y-y||が、閾値εより小さいか否かを判断する。上記式が満たされていれば、サンプル評価部227は、選択したサンプルθを、推定された人流パターンを規定する真のパラメータとして推定し出力し、処理を終了する。
 一方、上記式が満たされなかった場合、シミュレーション実行部223での動作に戻る。
 もしくは、第1のサンプル取得部222での動作に戻る。このとき、スパース性が十分に入っていなければ、第1のサンプル評価部222の入力であるハイパーパラメータηも変更されるものとする(ARD)。
 次に、図13のフローチャートを参照して、具体例を挙げながら、人流パターン推定システム100の動作の一実施例について説明する。
 先ず、データ入力部221は、地図情報と施設情報とを人流シミュレータ210に設定する(ステップS101)。
 具体的には、データ入力部221は、人流シミュレータ210に銀座などのマップを与える。
 次に、第1のサンプル取得部222は、ハイパーパラメータηに基づいて事前分布Pからサンプルを取り出し、人流シミュレータ210へ入力すべきパラメータのN個のサンプル{θ}を取得する(ステップS102)。
 具体的には、第1のサンプル取得部222は、銀座マップにおいてシミュレーションする人口集団を制御するパラメータθのサンプルを、例えば1000個取ってくる(N=1000)。
 例えば、一つのパラメータθは、以下のような要素で構成される。銀座を訪れるサラリーマンの集団を考えると、パラメータθは、集団の人数、彼らが銀座を訪れる時刻、彼らが銀座を出ていく時刻、銀座で立ち寄る店舗の位置情報、その店舗での滞在時間などである。ハイパーパラメータηは、それを調整することによって余分なパラメータを削除することができる。例えば、銀座には、コンビニエンスストアしか立ち寄らない集団は来ないといった推定がこれによってできる。
 引き続いて、シミュレーション実行部223は、パラメータのサンプル{θ}を、人流シミュレータ210にN回入力して、N個の人口分布データ{y}を得る(ステップS103)。
 具体的には、シミュレーション実行部223は、ステップS102で得られた一つ一つのパラメータのサンプルに関して、シミュレーションを行う。あるパラメータ集合のサンプルでは、集団の人数が1000人かもしれず、別のサンプルでは2000人かもしれないといった違いがある。ステップS102 で、1000個のパラメータ集合を取ってきたので、シミュレーション実行部223は1000回のシミュレーションを行う。そして、人流シミュレータ210から、そのシミュレーションされた人口分布データyを取得する。
 次に、Kernel ABC 実行部(類似度算出部)224は、上記数10の計算を行い、正解データyと各シミュレーションされた人口分布データ{y}との類似度{w}を得る(ステップS104)。
 具体的には、Kernel ABC 実行部224は、銀座で1000個の違った形でシミュレーションされたデータyを、銀座の正解データy と比べる。この比較により、正解データyとシミュレーションからのデータyとの類似度wが計算される。Kernel ABC 実行部224は、この類似度wをもとに、シミュレーションされたデータに紐づいているパラメータのサンプルθのもっともらしさを決定する。
 引き続いて、カーネル平均構築部225は、上記数11に従って、事後分布のカーネル平均μを計算する(ステップS105)。
 具体的には、カーネル平均構築部225は、ステップS104で計算された類似度wを元に、パラメータのサンプルθに関して、事後分布のカーネル平均μを構築する。これは、事前分布からのサンプルθを元に、類似度wを使い重みを再調整し、確率分布を再生核ヒルベルト空間上で構築することに相当する。
 次に、第2のサンプル取得部226は、上記数12の誤差を最小化する計算を行なって、新たなパラメータのT個のサンプル{θ}を取得する(ステップS106)。
 具体的には、第2のサンプル取得部226は、事後分布のカーネル平均μからのサンプリングを行う。このとき、サンプルされるのは新たなパラメータのサンプルθだが、ステップS102において取得したパラメータのサンプルθとは違い、正解データyを生み出すようなパラメータのサンプルが求められる。
 引き続いて、サンプル評価部227は、新たなパラメータのT個のサンプル{θ}を評価する(ステップS107)。
 具体的には、サンプル評価部227は、ステップ106で求められたパラメータ集合{θ}(1≦t≦T)のなかからパラメータθを一つ適当に選び、それを人流シミュレータ210に入力し、データyを獲得する。そして、サンプル評価部227は、獲得したデータyを正解データyと比べることで、パラメータの確からしさを評価する。選択したパラメータθが充分に確からしい場合、サンプル評価部227は、それを銀座における人流推定値とする(ステップS108)。
 そのパラメータθには、銀座にどういった集団が、どこから来て、どこに滞在し、どこから帰っていくかという情報が含まれている。パラメータθの確からしさが満足のいくものでない場合(ステップS107のNo)、人流パターン推定システム100は、もう一度、ステップS103もしくはステップS102から動作を繰り返す。
 次に、人流パターン推定システム100を実行した場合の実験結果について説明する。
 ここでは、図14に示すように、銀座の4meshモデルの実験を設定した。本例では、(2×2)の4つのメッシュに分割されているが、実際の例では、例えば、5×5=25メッシュに分割されることに注意されたい。図示の例では、4つのメッシュは、(0,0)、(0,1)、(1,0)、および(1,1)の領域から成る。時刻は、900~17:00で30分間隔とした。
 図15に示すような、5つのルールを設定した。そのため、推定パラメータの次元は、(Start, Goal, Transit×2, Stay×2, T, N)×5ルールで、40次元となる。ここで、Tは集団の出発時刻を示し、Nは集団の人数を示す。なお、この各ルールにおいて、Nはパラメータθのサンプル数Nとは異なり、Tは新たなパラメータのサンプル数Tとは異なることに注意されたい。
 図16は、図14に示した銀座の4meshモデルの実験結果を示す。図16において、左側のKernel ABCの図は、シミュレーション実行部223およびKernel ABC 実行部224のみを1回だけ実行した場合の、各メッシュでの人口分布の変化を示している。真ん中のKernel Herding (1st)の図は、シミュレーション実行部223、Kernel ABC 実行部224、カーネル平均構築部225、および第2のサンプル取得部226を1回だけ実行した場合の、各メッシュでの人口分布の変化を示している。右側のKernel Herding (2nd)の図は、シミュレーション実行部223、Kernel ABC 実行部224、カーネル平均構築部225、および第2のサンプル取得部226を2回実行した場合の、各メッシュでの人口分布の変化を示している。
 図16から、Kernel ABCだけよりも(Kernel ABC + Kernel Herding)の方が、より正解データに近い人口分布を持つ推定結果が得られることが分かる。また、(Kernel ABC + Kernel Herding)を1回実行するよりも(Kernel ABC + Kernel Herding)を2回実行する方が、より正解データに近い人口分布を持つ推定結果が得られることが分かる。
 尚、上記実施の形態において、機械学習装置220の各部は、ハードウェアとソフトウェアとの組み合わせを用いて実現可能である。ハードウェアとソフトウェアとを組み合わせた形態では、記憶装置300にプログラム320としてパラメータ推定プログラムが格納され、該パラメータ推定プログラムに基づいて機械学習装置220のハードウェアを動作させることによって、各部を各種手段として実現する。また、該パラメータ推定プログラムは、記録媒体に記録されて頒布されても良い。当該記録媒体に記録されたパラメータ推定プログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、処理部等を動作させる。尚、記録媒体を例示すれば、オプティカルディスクや磁気ディスク、半導体メモリ装置、ハードディスクなどが挙げられる。
 上記実施の形態を別の表現で説明すれば、機械学習装置220として動作させるコンピュータを、記憶装置300にプログラム320として格納されたパラメータ推定プログラムに基づき、データ入力部221、第1のサンプル取得部222、シミュレーション実行部(関数実行部)223、Kernel ABC 実行部(類似度算出部)224、カーネル平均構築部225、第2のサンプル取得部226、およびサンプル評価部227として動作させることで実現することが可能である。
 以上、本発明の実施の形態および実施例を、図面を参照しつつ説明してきたが、当業者であれば、他の類似する実施形態および実施例を使用することができること、また、本発明から逸脱することなく適宜形態の変更又は追加を行うことができることに留意すべきである。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 データyを出力する関数のパラメータθを推定するパラメータ推定システムであって、
 前記関数に設定する前記パラメータθを、繰り返し学習により決定する機械学習装置を備え、
 前記機械学習装置は、
 事前分布Pから前記パラメータθのN(Nは2以上の整数)個のサンプルθ(1≦i≦N)を取得する第1のサンプル取得部と、
 前記N個のサンプルθを順次前記関数に供給することで、それぞれ、前記関数からN個のデータyを取得する関数実行部と、
 カーネル関数kを用いて、前記N個のデータyとデータを表す正解データyとの間のN個の類似度wを算出する類似度算出部と、
 該N個の類似度wと、前記N個のサンプルθと、前記カーネル関数kとから、事後分布のカーネル平均μを構築するカーネル平均構築部と、
 前記カーネル平均μと前記カーネル関数kとから、パラメータθのT(Tは2以上の整数)個の新たなサンプルθ(1≦t≦T)を取得する第2のサンプル取得部と、
 該T個の新たなサンプルθから選択した1つのサンプルθを前記関数に供給することによって前記関数から得られた新たなデータyと前記正解データyとの間の差分||y-y||が、所定の閾値εより小さいか否かを判断するサンプル評価部と、
を備え、
 前記サンプル評価部は、前記差分||y-y||が前記所定の閾値εより小さいと判断した場合に、前記選択したサンプルθを、前記パラメータθとして推定し、出力することを特徴とするパラメータ推定システム。
(付記2)
 前記第1のサンプル取得部は、前記事前分布Pのハイパーパラメータηを調整しながら、前記N個のサンプルθを取得する、付記1に記載のパラメータ推定システム。
(付記3)
 前記類似度算出部は、Kernel ABCアルゴリズムにより前記N個の類似度wを算出するKernel ABC 実行部から成る、付記1又は2に記載のパラメータ推定システム。
(付記4)
 前記Kernel ABC 実行部は、前記カーネル関数kと、グラム行列Gと、正規化項δとを用いて、前記N個のデータyと前記正解データyとの間の前記N個の類似度wを算出する、付記3に記載のパラメータ推定システム。
(付記5)
 前記カーネル平均構築部は、前記N個のサンプルθを元に、前記N個の類似度wと前記カーネル関数kとを使い重みを再調整し、確率分布を表す前記カーネル平均μを再生核ヒルベルト空間上で構築する、付記1乃至4のいずれか1項に記載のパラメータ推定システム。
(付記6)
 前記第2のサンプル取得部は、前記カーネル関数k、前記新たなサンプルθおよび前記取り出すサンプル数Tと、前記カーネル平均μとの間で求められる誤差を最小化する計算を行なって、前記新たなサンプルθを取得する、付記1乃至5のいずれか1項に記載のパラメータ推定システム。
(付記7)
 前記サンプル評価部において、前記差分||y-y||が前記所定の閾値εより大きいと判断された場合に、前記シミュレーション実行部、前記類似度算出部、前記カーネル平均構築部、第2のサンプル取得部、および前記サンプル評価部の動作を繰り返す、付記1乃至6のいずれか1項に記載のパラメータ推定システム。
(付記8)
 前記サンプル評価部において、前記差分||y-y||が前記所定の閾値εより大きいと判断された場合に、前記第1のサンプル取得部、前記関数実行部、前記類似度算出部、前記カーネル平均構築部、第2のサンプル取得部、および前記サンプル評価部の動作を繰り返す、付記1乃至6のいずれか1項に記載のパラメータ推定システム。
(付記9)
 前記繰り返す動作を行なう前に、前記パラメータθの冗長性をコントロールしたい場合、前記第1のサンプル取得部は、前記事前分布Pのハイパーパラメータηを調整する、付記8に記載のパラメータ推定システム。
(付記10)
 関数のパラメータθを推定するパラメータ推定システムにおける、前記パラメータθのサンプルから、データyを出力する前記関数を用いて、前記関数に設定する前記パラメータθを、繰り返し学習により決定するパラメータ推定方法であって、
 第1のサンプル取得部が、事前分布Pから前記パラメータθのN(Nは2以上の整数)個のサンプルθ(1≦i≦N)を取得し、
 関数実行部が、前記N個のサンプルθを順次前記関数に供給することで、それぞれ、前記関数からN個のデータyを取得し、
 類似度算出部が、カーネル関数kを用いて、前記N個のデータyとデータを表す正解データyとの間のN個の類似度wを算出し、
 カーネル平均構築部が、前記N個の類似度wと、前記N個のサンプルθと、前記カーネル関数kとから、事後分布のカーネル平均μを構築し、
 第2のサンプル取得部が、前記カーネル平均μと前記カーネル関数kとから、パラメータθのT(Tは2以上の整数)個の新たなサンプルθ(1≦t≦T)を取得し、
 サンプル評価部が、前記T個の新たなサンプルθから選択した1つのサンプルθを前記関数に供給することによって前記関数から得られた新たなデータyと前記正解データyとの間の差分||y-y||が、所定の閾値εより小さいか否かを判断し、
 前記サンプル評価部は、前記差分||y-y||が前記所定の閾値εより小さいと判断した場合に、前記選択したサンプルθを、前記パラメータθとして推定し、出力することを特徴とするパラメータ推定方法。
(付記11)
 関数のパラメータθを推定するパラメータ推定システムにおいて、前記パラメータθのサンプルから、データyを出力する前記関数を用いて、コンピュータに、前記関数に設定する前記パラメータθを、繰り返し学習により決定させるパラメータ推定プログラムを記録した記録媒体であって、前記パラメータ推定プログラムは、前記コンピュータに、
 事前分布Pから前記パラメータθのN(Nは2以上の整数)個のサンプルθ(1≦i≦N)を取得する第1のサンプル取得手順と、
 前記N個のサンプルθを順次前記関数に供給することで、それぞれ、前記関数からN個のある分布からデータyを取得する関数実行手順と、
 カーネル関数kを用いて、前記N個のデータyとデータを表す正解データyとの間のN個の類似度wを算出する類似度算出手順と、
 該N個の類似度wと、前記N個のサンプルθと、前記カーネル関数kとから、事後分布のカーネル平均μを構築するカーネル平均構築手順と、
 前記カーネル平均μと前記カーネル関数kとから、パラメータθのT(Tは2以上の整数)個の新たなサンプルθ(1≦t≦T)を取得する第2のサンプル取得手順と、
 該T個の新たなサンプルθから選択した1つのサンプルθを前記関数に供給することによって前記関数から得られた新たなデータyと前記正解データyとの間の差分||y-y||が、所定の閾値εより小さいか否かを判断するサンプル評価手順と、
を実行させ、
 前記サンプル評価手順は、前記コンピュータに、前記差分||y-y||が前記所定の閾値εより小さいと判断した場合に、前記選択したサンプルθを、前記パラメータθとして推定させ、出力させることを特徴とするパラメータ推定プログラム記録媒体。
 本発明は、関数が評価できない場合に最尤法によりパラメータを推定する分野に適用可能である。例えば、本発明は、金融時系列の分散を表すモデルのパラメータや、生物の個体数の時間発展を記述するモデルのパラメータ、遺伝的多様性を実現するようなモデルのパラメータを推定する分野にも適用可能である。
 この出願は、2017年10月3日に出願された日本出願特願2017-193245を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 100  人流パターン推定システム(パラメータ推定システム)
 200  データ処理装置
 210  人流シミュレータ(関数)
 220  機械学習装置
 221  データ入力部
 222  第1のサンプル取得部(事前分布からのサンプル取得部)
 223  シミュレーション実行部(関数実行部)
 224  Kernel ABC 実行部(類似度算出部)
 225  カーネル平均構築部
 226  第2のサンプル取得部(事後分布からのサンプル取得部)
 227  サンプル評価部
 300  記憶装置
 310  処理情報
 320  プログラム
 400  入力装置
 500  出力装置
 

Claims (11)

  1.  データyを出力する関数のパラメータθを推定するパラメータ推定システムであって、
     前記関数に設定する前記パラメータθを、繰り返し学習により決定する機械学習装置を備え、
     前記機械学習装置は、
     事前分布Pから前記パラメータθのN(Nは2以上の整数)個のサンプルθ(1≦i≦N)を取得する第1のサンプル取得部と、
     前記N個のサンプルθを順次前記関数に供給することで、それぞれ、前記関数からN個のデータyを取得する関数実行部と、
     カーネル関数kを用いて、前記N個のデータyとデータを表す正解データyとの間のN個の類似度wを算出する類似度算出部と、
     該N個の類似度wと、前記N個のサンプルθと、前記カーネル関数kとから、事後分布のカーネル平均μを構築するカーネル平均構築部と、
     前記カーネル平均μと前記カーネル関数kとから、パラメータθのT(Tは2以上の整数)個の新たなサンプルθ(1≦t≦T)を取得する第2のサンプル取得部と、
     該T個の新たなサンプルθから選択した1つのサンプルθを前記関数に供給することによって前記関数から得られた新たなデータyと前記正解データyとの間の差分||y-y||が、所定の閾値εより小さいか否かを判断するサンプル評価部と、
    を備え、
     前記サンプル評価部は、前記差分||y-y||が前記所定の閾値εより小さいと判断した場合に、前記選択したサンプルθを、前記パラメータθとして推定し、出力することを特徴とするパラメータ推定システム。
  2.  前記第1のサンプル取得部は、前記事前分布Pのハイパーパラメータηを調整しながら、前記N個のサンプルθを取得する、請求項1に記載のパラメータ推定システム。
  3.  前記類似度算出部は、Kernel ABCアルゴリズムにより前記N個の類似度wを算出するKernel ABC 実行部から成る、請求項1又は2に記載のパラメータ推定システム。
  4.  前記Kernel ABC 実行部は、前記カーネル関数kと、グラム行列Gと、正規化項δとを用いて、前記N個のデータyと前記正解データyとの間の前記N個の類似度wを算出する、請求項3に記載のパラメータ推定システム。
  5.  前記カーネル平均構築部は、前記N個のサンプルθを元に、前記N個の類似度wと前記カーネル関数kとを使い重みを再調整し、確率分布を表す前記カーネル平均μを再生核ヒルベルト空間上で構築する、請求項1乃至4のいずれか1項に記載のパラメータ推定システム。
  6.  前記第2のサンプル取得部は、前記カーネル関数k、前記新たなサンプルθおよび前記取り出すサンプル数Tと、前記カーネル平均μとの間で求められる誤差を最小化する計算を行なって、前記新たなサンプルθを取得する、請求項1乃至5のいずれか1項に記載のパラメータ推定システム。
  7.  前記サンプル評価部において、前記差分||y-y||が前記所定の閾値εより大きいと判断された場合に、前記シミュレーション実行部、前記類似度算出部、前記カーネル平均構築部、第2のサンプル取得部、および前記サンプル評価部の動作を繰り返す、請求項1乃至6のいずれか1項に記載のパラメータ推定システム。
  8.  前記サンプル評価部において、前記差分||y-y||が前記所定の閾値εより大きいと判断された場合に、前記第1のサンプル取得部、前記関数実行部、前記類似度算出部、前記カーネル平均構築部、第2のサンプル取得部、および前記サンプル評価部の動作を繰り返す、請求項1乃至6のいずれか1項に記載のパラメータ推定システム。
  9.  前記繰り返す動作を行なう前に、前記パラメータθの冗長性をコントロールしたい場合、前記第1のサンプル取得部は、前記事前分布Pのハイパーパラメータηを調整する、請求項8に記載のパラメータ推定システム。
  10.  関数のパラメータθを推定するパラメータ推定システムにおける、前記パラメータθのサンプルから、データyを出力する前記関数を用いて、前記関数に設定する前記パラメータθを、繰り返し学習により決定するパラメータ推定方法であって、
     第1のサンプル取得部が、事前分布Pから前記パラメータθのN(Nは2以上の整数)個のサンプルθ(1≦i≦N)を取得し、
     関数実行部が、前記N個のサンプルθを順次前記関数に供給することで、それぞれ、前記関数からN個のデータyを取得し、
     類似度算出部が、カーネル関数kを用いて、前記N個のデータyとデータを表す正解データyとの間のN個の類似度wを算出し、
     カーネル平均構築部が、前記N個の類似度wと、前記N個のサンプルθと、前記カーネル関数kとから、事後分布のカーネル平均μを構築し、
     第2のサンプル取得部が、前記カーネル平均μと前記カーネル関数kとから、パラメータθのT(Tは2以上の整数)個の新たなサンプルθ(1≦t≦T)を取得し、
     サンプル評価部が、前記T個の新たなサンプルθから選択した1つのサンプルθを前記関数に供給することによって前記関数から得られた新たなデータyと前記正解データyとの間の差分||y-y||が、所定の閾値εより小さいか否かを判断し、
     前記サンプル評価部は、前記差分||y-y||が前記所定の閾値εより小さいと判断した場合に、前記選択したサンプルθを、前記パラメータθとして推定し、出力することを特徴とするパラメータ推定方法。
  11.  関数のパラメータθを推定するパラメータ推定システムにおいて、前記パラメータθのサンプルから、データyを出力する前記関数を用いて、コンピュータに、前記関数に設定する前記パラメータθを、繰り返し学習により決定させるパラメータ推定プログラムを記録した記録媒体であって、前記パラメータ推定プログラムは、前記コンピュータに、
     事前分布Pから前記パラメータθのN(Nは2以上の整数)個のサンプルθ(1≦i≦N)を取得する第1のサンプル取得手順と、
     前記N個のサンプルθを順次前記関数に供給することで、それぞれ、前記関数からN個のある分布からデータyを取得する関数実行手順と、
     カーネル関数kを用いて、前記N個のデータyとデータを表す正解データyとの間のN個の類似度wを算出する類似度算出手順と、
     該N個の類似度wと、前記N個のサンプルθと、前記カーネル関数kとから、事後分布のカーネル平均μを構築するカーネル平均構築手順と、
     前記カーネル平均μと前記カーネル関数kとから、パラメータθのT(Tは2以上の整数)個の新たなサンプルθ(1≦t≦T)を取得する第2のサンプル取得手順と、
     該T個の新たなサンプルθから選択した1つのサンプルθを前記関数に供給することによって前記関数から得られた新たなデータyと前記正解データyとの間の差分||y-y||が、所定の閾値εより小さいか否かを判断するサンプル評価手順と、
    を実行させ、
     前記サンプル評価手順は、前記コンピュータに、前記差分||y-y||が前記所定の閾値εより小さいと判断した場合に、前記選択したサンプルθを、前記パラメータθとして推定させ、出力させることを特徴とするパラメータ推定プログラム記録媒体。
     
     
PCT/JP2018/036731 2017-10-03 2018-10-01 パラメータ推定システム、パラメータ推定方法およびパラメータ推定プログラム記録媒体 WO2019069865A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/753,266 US11636399B2 (en) 2017-10-03 2018-10-01 Parameter estimation system, parameter estimation method, and parameter estimation program recording medium for estimating parameter and kernel functions by incorporating machine learning
JP2019546701A JP6853968B2 (ja) 2017-10-03 2018-10-01 パラメータ推定システム、パラメータ推定方法およびパラメータ推定プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017193245 2017-10-03
JP2017-193245 2017-10-03

Publications (1)

Publication Number Publication Date
WO2019069865A1 true WO2019069865A1 (ja) 2019-04-11

Family

ID=65994734

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/036731 WO2019069865A1 (ja) 2017-10-03 2018-10-01 パラメータ推定システム、パラメータ推定方法およびパラメータ推定プログラム記録媒体

Country Status (3)

Country Link
US (1) US11636399B2 (ja)
JP (1) JP6853968B2 (ja)
WO (1) WO2019069865A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235611A1 (ja) * 2018-06-07 2019-12-12 日本電気株式会社 分析装置、分析方法および記録媒体
CN111461932A (zh) * 2020-04-09 2020-07-28 北京北大软件工程股份有限公司 基于大数据的行政处罚自由裁量权合理性评估方法及装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023090405A (ja) * 2021-12-17 2023-06-29 富士通株式会社 予測プログラム、予測方法、予測装置、および予測システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5950146A (en) * 1996-10-04 1999-09-07 At & T Corp. Support vector method for function estimation
US6112195A (en) * 1997-03-27 2000-08-29 Lucent Technologies Inc. Eliminating invariances by preprocessing for kernel-based methods
US6789069B1 (en) * 1998-05-01 2004-09-07 Biowulf Technologies Llc Method for enhancing knowledge discovered from biological data using a learning machine
US7805388B2 (en) * 1998-05-01 2010-09-28 Health Discovery Corporation Method for feature selection in a support vector machine using feature ranking
US9818136B1 (en) * 2003-02-05 2017-11-14 Steven M. Hoffberg System and method for determining contingent relevance
US7421417B2 (en) * 2003-08-28 2008-09-02 Wisconsin Alumni Research Foundation Input feature and kernel selection for support vector machine classification
US8645294B1 (en) * 2004-02-03 2014-02-04 Hrl Laboratories, Llc Method for image registration utilizing particle swarm optimization
US7272587B1 (en) * 2005-01-28 2007-09-18 Hrl Laboratories, Llc Generation of decision trees by means of a probabilistic model
US8005770B2 (en) * 2008-06-09 2011-08-23 Microsoft Corporation Parallel generation of a bayesian network
US8533129B2 (en) * 2008-09-16 2013-09-10 Yahoo! Inc. Efficient data layout techniques for fast machine learning-based document ranking
US9715723B2 (en) * 2012-04-19 2017-07-25 Applied Materials Israel Ltd Optimization of unknown defect rejection for automatic defect classification
JP5952724B2 (ja) 2012-12-05 2016-07-13 株式会社日立製作所 人流調査支援システム及び方法
JP2015022354A (ja) 2013-07-16 2015-02-02 株式会社東芝 商品情報提供システム、商品情報提供方法、サーバおよびプログラム
US9558452B2 (en) * 2013-11-08 2017-01-31 Microsoft Technology Licensing, Llc Hierarchical statistical model for behavior prediction and classification
US9652722B1 (en) * 2013-12-05 2017-05-16 The Mathworks, Inc. Methods and systems for robust supervised machine learning
WO2016067369A1 (ja) 2014-10-28 2016-05-06 株式会社日立製作所 人流分析システムおよび人流分析方法
US10360601B1 (en) * 2014-12-11 2019-07-23 Alexander Omeed Adegan Method for generating a repair estimate through predictive analytics
JP6397380B2 (ja) 2015-07-30 2018-09-26 日本電信電話株式会社 時空間変数予測装置及びプログラム
US11069082B1 (en) * 2015-08-23 2021-07-20 AI Incorporated Remote distance estimation system and method
US10783589B2 (en) * 2018-11-03 2020-09-22 International Business Machines Corporation Armonk Detection of abnormal estimates
US11306162B2 (en) * 2019-04-17 2022-04-19 Exxonmobil Chemical Patents Inc. Metallocenes with two -Si-Si- bridges
US10646156B1 (en) * 2019-06-14 2020-05-12 Cycle Clarity, LLC Adaptive image processing in assisted reproductive imaging modalities
US10958869B1 (en) * 2019-11-14 2021-03-23 Huawei Technologies Co., Ltd. System, device and method for video frame interpolation using a structured neural network
US11409629B1 (en) * 2021-03-05 2022-08-09 Sift Science, Inc. Systems and methods for optimizing a machine learning-informed automated decisioning workflow in a machine learning task-oriented digital threat mitigation platform

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOBAYASHI, KOICHI ET AL.: "Parameter Estimation and Active Learning in the ZRP Based on Traffic Spatiotemporal Data", IEICE TECHNICAL REPOR T, vol. 112, no. 279, 31 October 2012 (2012-10-31), pages 97 - 101, ISSN: 0913-5685 *
MATSUBARA, TAKUO ET AL.: "New Learning Algorithm of Neural Network using Integral Representation and Kernel Herding", IEICE TECHNICAL REPORT, vol. 116, no. 500, 27 February 2017 (2017-02-27), pages 25 - 31, ISSN: 0913-5685 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235611A1 (ja) * 2018-06-07 2019-12-12 日本電気株式会社 分析装置、分析方法および記録媒体
JPWO2019235611A1 (ja) * 2018-06-07 2021-06-17 日本電気株式会社 分析装置、分析方法およびプログラム
JP7164799B2 (ja) 2018-06-07 2022-11-02 日本電気株式会社 分析装置、分析方法およびプログラム
CN111461932A (zh) * 2020-04-09 2020-07-28 北京北大软件工程股份有限公司 基于大数据的行政处罚自由裁量权合理性评估方法及装置

Also Published As

Publication number Publication date
US20200250586A1 (en) 2020-08-06
JP6853968B2 (ja) 2021-04-07
US11636399B2 (en) 2023-04-25
JPWO2019069865A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
Russo et al. Air quality prediction using optimal neural networks with stochastic variables
US20190019082A1 (en) Cooperative neural network reinforcement learning
JP6853955B2 (ja) 人流パターン推定システム、人流パターン推定方法および人流パターン推定プログラム
Dahal et al. An agent-integrated irregular automata model of urban land-use dynamics
EP3716160A1 (en) Learning parameters of a probabilistic model comprising gaussian processes
Murphy et al. Risky planning on probabilistic costmaps for path planning in outdoor environments
JP6853968B2 (ja) パラメータ推定システム、パラメータ推定方法およびパラメータ推定プログラム
JP6749282B2 (ja) 人流量予測装置、人流量予測方法、及び人流量予測プログラム
JP5071851B2 (ja) 時間情報を用いた予測装置、予測方法、予測プログラムおよびそのプログラムを記録した記録媒体
Clay et al. Towards real-time crowd simulation under uncertainty using an agent-based model and an unscented kalman filter
JP2023507139A (ja) 離散二次モデルの解を求めるためのハイブリッドアルゴリズムのシステム及び方法
Jasour et al. Fast nonlinear risk assessment for autonomous vehicles using learned conditional probabilistic models of agent futures
Griffin Sequential Monte Carlo methods for mixtures with normalized random measures with independent increments priors
Amendola et al. Data assimilation in the latent space of a convolutional autoencoder
Blume Agent-based models for policy analysis
Prabowo et al. Continually learning out-of-distribution spatiotemporal data for robust energy forecasting
JP2020190959A (ja) モデル生成装置、システム、パラメータ算出装置、モデル生成方法、パラメータ算出方法およびプログラム
Poornima et al. Prediction of Water Consumption Using Machine Learning Algorithm
Son et al. Prediction of the failure interval with maximum power based on the remaining useful life distribution
Lee et al. Hierarchical sparse observation models and informative prior for Bayesian inference of spatially varying parameters
Mattila Hidden Markov models: Identification, inverse filtering and applications
Heppenstall et al. Reflections and conclusions: Geographical models to address grand challenges
Pelikán FORECASTING OF PROCESSES IN COMPLEX SYSTEMS FOR REAL-WORLD PROBLEMS.
Zhao et al. STCGAT: A spatio-temporal causal graph attention network for traffic flow prediction in intelligent transportation systems
Abbas et al. Empirical evaluation of Bayesian optimization in parametric tuning of chaotic systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18865213

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019546701

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18865213

Country of ref document: EP

Kind code of ref document: A1