WO2020105468A1 - 情報処理装置、情報処理システム、情報処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体 - Google Patents

情報処理装置、情報処理システム、情報処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Info

Publication number
WO2020105468A1
WO2020105468A1 PCT/JP2019/043821 JP2019043821W WO2020105468A1 WO 2020105468 A1 WO2020105468 A1 WO 2020105468A1 JP 2019043821 W JP2019043821 W JP 2019043821W WO 2020105468 A1 WO2020105468 A1 WO 2020105468A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
sample
parameter
information processing
distribution
Prior art date
Application number
PCT/JP2019/043821
Other languages
English (en)
French (fr)
Inventor
慶一 木佐森
山崎 啓介
Original Assignee
日本電気株式会社
国立研究開発法人産業技術総合研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社, 国立研究開発法人産業技術総合研究所 filed Critical 日本電気株式会社
Priority to US17/295,294 priority Critical patent/US20220004908A1/en
Priority to JP2020558269A priority patent/JP7097541B2/ja
Publication of WO2020105468A1 publication Critical patent/WO2020105468A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Definitions

  • the present invention relates to an information processing device, an information processing system, an information processing method, and a program.
  • Non-Patent Document 1 proposes a method of estimating points of parameters by repeatedly executing kernel ABC (Kernel Approximate Bayesian Computation) and kernel hardening (Kernel Herding).
  • kernel ABC Kernel Approximate Bayesian Computation
  • kernel hardening Kernel Herding
  • Patent Document 1 a computer that operates as an adaptive controller determines a control amount for the state of the physical system when the time evolution of the target physical system is described as a Markov process. Then, this computer adaptively generates a control signal for controlling the state quantity of the physical system to a target value by the stochastic sequential weighted sampling method.
  • Patent Document 2 discloses a wind power generation amount prediction device that predicts the power generation amount by wind power generation.
  • This wind power generation amount predicting apparatus generates a polynomial that approximates data indicating the first wind speed and the first power generation amount at the first wind speed, and calculates the second wind speed and the second wind speed, respectively, based on this polynomial.
  • the maximum likelihood estimation value based on the error variance of the second power generation amount in is calculated.
  • the wind power generation amount prediction device calculates the information amount criterion based on the maximum likelihood estimated value.
  • Patent Document 3 discloses an information processing device capable of performing accurate regression analysis even when the mean and variance of objective variables depend on explanatory variables that take continuous values.
  • Non-Patent Document 1 is a kind of maximum likelihood estimation method
  • point estimation is performed by this method. That is, the distribution is not estimated. Therefore, for example, when estimating the parameters of a singular model, there is a possibility that appropriate estimation may not be possible.
  • Patent Documents 1 to 3 also do not disclose a method for estimating the posterior distribution of model parameters.
  • one of the objects to be achieved by the embodiments disclosed in the present specification is to provide an information processing device or the like capable of estimating the posterior distribution of model parameters.
  • the information processing apparatus is A plurality of pieces of observation information that are observed when an input is given to an observation target, and a simulator that simulates the observation target based on a sample of parameters is created for the plurality of samples and the first type data representing the input.
  • Corresponding data calculation means for determining the importance of each sample according to the difference from the second type of data and the degree of influence of the sample on the distribution of the parameter, and calculating the data corresponding to the distribution of the parameter.
  • New parameter sample generation means for generating a new sample of the parameter according to a predetermined process using data corresponding to the distribution of the parameter
  • the corresponding data calculation unit determines the distribution of the parameters by using the new sample created by the new parameter sample creation unit and the second type data created by the simulator for the first type data.
  • a repetitive control unit that controls to repeat the processes of the corresponding data calculation unit and the new parameter sample generation unit while controlling to calculate corresponding data.
  • the information processing system according to the second aspect, The information processing device and the simulator are provided.
  • the information processing method is Depending on the information processing device, A plurality of pieces of observation information that are observed when an input is given to an observation target, and a simulator that simulates the observation target based on a sample of parameters is created for the plurality of samples and the first type data representing the input.
  • a first process of determining the importance of each sample according to the difference from the second type of data and the degree of influence of the sample on the distribution of the parameter, and calculating data corresponding to the distribution of the parameter Run Performing a second process of generating a new sample of the parameter according to a predetermined process using the data corresponding to the distribution of the parameter, While controlling to execute the first process by using the second sample data created by the simulator with respect to the new sample and the first type data generated by the second process. , The first process and the second process are repeated.
  • the program according to the fourth aspect is A plurality of pieces of observation information that are observed when an input is given to an observation target, and a simulator that simulates the observation target based on a sample of parameters is created for the plurality of samples and the first type data representing the input.
  • a new parameter sample generation step of generating a new sample of the parameter according to a predetermined process using the data corresponding to the distribution of the parameter Control is performed to execute the corresponding data calculation step by using the new sample created in the new parameter sample creation step and the second type data created by the simulator with respect to the first type data.
  • the computer is made to execute the corresponding data calculation step and the repetitive control step for controlling the processing of the new parameter sample generation step to be repeated.
  • FIG. 16 is a block diagram showing an example of a functional configuration of an information processing device according to another embodiment.
  • each term does not necessarily have to be a mathematically defined value.
  • the distance can be mathematically defined such as Euclidean norm and 1-norm. However, the distance may be such a value plus one. That is, the terms used in the following embodiments need not be mathematically defined terms.
  • FIG. 1 is a block diagram showing an example of the configuration of an information processing system 10 according to the embodiment.
  • the information processing system 10 includes an information processing device 100 and a simulator server (simulator) 200.
  • the simulator server 200 is a simulator that receives input of the first type of data and outputs the second type of data. That is, the simulator server 200 performs a simulation process of predicting the second type of data from the first type of data according to the model defined by the parameter ⁇ . For example, the simulator server 200 executes a process of simulating a process (operation) on an observation target based on the sample of the parameter ⁇ . The sample represents the value of the parameter ⁇ . Therefore, the plurality of samples represent a plurality of examples (data) set as the value of the parameter ⁇ .
  • the first type of data will be referred to as data X
  • the second type of data will be referred to as data Y.
  • the number of pieces of observation data is n (n is a positive integer)
  • the observation data of the data X (first type of observation data) is expressed as observation data X n
  • the observation data of the data Y (second type of observation data) Data) is referred to as observation data Y n .
  • the elements of the observation data X n are expressed as X 1 , ..., X n
  • the elements of the observation data Y n are expressed as Y 1 , ..., Y n .
  • the information processing apparatus 100 uses the observation data in which the data X i (i is an integer of 1 ⁇ i ⁇ n) and the data Y i are associated one-to-one (hence, the observation data that can be plotted on the XY plane). To get.
  • observation data may be referred to as observation information.
  • observation data Y n may be represented as a plurality of pieces of observation information.
  • each element Y 1 , ..., Y n may also be referred to as observation information.
  • the observation data X n and Y n are not limited to specific types of data, and can be various actually measured data.
  • the actual measurement method for obtaining the observation data is not limited to a specific method, and various methods such as counting or measurement by a person such as a user or sensing using a sensor can be adopted.
  • the elements of the observation data X n may represent the states of the constituent elements forming the observation target.
  • the element of the observation data Y n may represent the state observed with respect to the observation target using a sensor or the like.
  • the observation data X n may represent the operating status of each facility in the manufacturing factory.
  • the observation data Y n may represent the number of products manufactured on a line configured by a plurality of facilities. Further, the observation data X n may represent a raw material that is a raw material of the product in the manufacturing factory. In this case, the material represented by the observation data X n is processed into a product through one or more processing steps.
  • the product is not limited to one type of product, and may be a plurality of products (for example, product A, product B, and by-product C).
  • the observation data Y n represents, for example, the number of products A, the number of products B, and the number of byproducts C (or the production amount).
  • the observation target and the observation data are not limited to the examples described above, and may be, for example, equipment in a processing factory or a construction system for constructing a certain facility.
  • x) can be expressed as p (y
  • x) represents the probability that the event y will occur when the event x occurs.
  • x) represents “q (x) ⁇ q (y
  • the operator "x" representing multiplication is omitted according to mathematical convention.
  • the regression model r (x, ⁇ ) used by the simulator server 200 receives the setting of the value of the parameter ⁇ and the input of the value of the data X to the variable x, and outputs the value of the data Y. For example, the simulator server 200 outputs a value of data Y by performing an operation including a sample of the parameter ⁇ on the data X (value of x). Note that the model does not necessarily have to use a differentiable function.
  • the simulator server 200 simulates a process or operation in an observation target.
  • the simulator server 200 calculates each data in the manufacturing factory by performing an operation on the value of the data X according to the value represented by the parameter ⁇ . Simulate.
  • the parameter ⁇ represents, for example, the relationship between input and output in each process.
  • the parameter ⁇ can also be said to represent the state in the process.
  • the parameter ⁇ is not limited to one and may be plural. That is, it can be said that the regression model r (x, ⁇ ) generically represents the entire processing executed by the simulator server 200 by using the symbol r.
  • x, ⁇ ) is expressed as the following equation (2).
  • x, ⁇ ) is a model showing statistical properties of the regression model r (x, ⁇ ).
  • this regression model r (x, ⁇ ) is not always expressed explicitly by using a mathematical expression, and for example, x and ⁇ are input and r (x, ⁇ ) is input. ) May be used to represent a process such as a simulation.
  • the coefficients of a mathematical formula are determined so as to fit given data.
  • the regression model r (x, ⁇ ) in the present embodiment may be a case where such a mathematical expression is not given. That is, the regression model r (x, ⁇ ) in the present embodiment may represent information in which the inputs x and ⁇ and the output r (x, ⁇ ) are associated with each other.
  • (where ⁇ > 0) is the standard deviation of Gaussian noise. That is, ⁇ is the standard deviation of the Gaussian noise in the model defined by the regression function with Gaussian noise.
  • r (x, ⁇ ) is a value calculated by the simulator server 200 according to the process represented by the regression model.
  • d is the number of dimensions of X (that is, the number of observation data described above).
  • exp represents an exponential function whose base is the number of Napiers.
  • represents that the norm is calculated.
  • represents the pi.
  • ⁇ ( ⁇ ) is the prior distribution for the parameter ⁇ .
  • x, y) is the posterior distribution for the parameter ⁇ .
  • ⁇ (where ⁇ > 0) is a parameter called inverse temperature. According to the Bayesian theorem, the posterior distribution of the parameter ⁇ can be calculated based on the prior distribution ⁇ ( ⁇ ) of the parameter ⁇ and the likelihood function p (y
  • a sample according to the posterior distribution can be obtained by the following method, for example.
  • acquisition of sample data of the parameter ⁇ using a kernel ABC (Kernel Approximate Bayesian Computation) and a predetermined process (Kernel Herding, etc.) will be described.
  • Kernel ABC is an algorithm that estimates the posterior distribution by calculating the kernel mean.
  • a posterior distribution is obtained by performing a simulation based on m sample data and determining the weight (importance) of the sample data of m parameters based on the observation data observed for the observation target. Be done. For example, the more similar the simulation result is to the observed data, the more the weight used for the parameter used in the simulation result is calculated. On the contrary, as the simulation result is less similar to the observation data, the weight for disregarding the parameter used in the simulation result is calculated.
  • Kernel kernel hardening is an algorithm that acquires a sample according to the posterior distribution from the kernel mean that shows the posterior distribution. Kernel Harding sequentially determines the sample when it is closest to the calculated kernel average. In the present embodiment, m samples are newly calculated for m samples by the processing in the kernel ABC and kernel harding, so it can be said that the values of the samples are adjusted. ..
  • Kernel-harding is a method of sequentially determining samples, but the predetermined process of acquiring samples according to the posterior distribution (in this embodiment, the estimated posterior distribution) is not limited to kernel-harding. That is, the predetermined process may be a method of creating a sample according to the posterior distribution (in the present embodiment, the estimated posterior distribution).
  • sample data of the parameter ⁇ according to the posterior distribution including the inverse temperature ⁇ is acquired.
  • the information processing apparatus 100 that acquires sample data using the kernel ABC and the kernel harding will be described.
  • the inverse temperature ⁇ represents a value that represents the level at which the distribution calculated based on each sample smoothes the influence on the estimated distribution in the process of estimating the posterior distribution.
  • the higher the reverse temperature ⁇ the lower the leveling level.
  • the higher the inverse temperature ⁇ the more likely the estimated distribution is to be affected by the individual distribution.
  • the lower the reverse temperature ⁇ the higher the leveling level.
  • the lower the inverse temperature ⁇ the less likely the estimated distribution is to be affected by some distributions.
  • the inverse temperature ⁇ represents the degree of influence indicating the degree of influence of the sample on the estimated distribution. That is, it can be said that the inverse temperature ⁇ represents the degree of influence of the sample on the estimated distribution.
  • the sample of the posterior distribution of the parameter ⁇ is acquired by repeatedly executing the parameter estimation processing by the kernel ABC and the kernel harding. That is, in this embodiment, the sample of the posterior distribution of the parameter ⁇ obtained by the parameter estimation process is regarded as the sample from the prior distribution, and the sample of the posterior distribution of the parameter ⁇ is obtained by repeating the parameter estimation process. To do. This will be described using mathematical expressions.
  • the information processing apparatus 100 repeats the above-described processing T times. However, T is an integer of 2 or more.
  • ⁇ (t) the total of ⁇ (t) set in each of the iterative processes. That is, it is assumed that the following expression (4) is established. However, 0 ⁇ (t) ⁇ 1.
  • the degree of influence of each repetition is set so that the total of the degrees of influence for the number of repetitions becomes 1.
  • the posterior distribution represented by the following equation (5) is obtained based on Bayes' theorem (see equation (3)). ..
  • the second predetermined number of parameters is obtained based on the first predetermined number of samples obtained from the prior distribution of the parameter ⁇ .
  • the number of samples obtained from the prior distribution (that is, the first predetermined number) and the number of samples obtained as the parameter estimation processing result (that is, the second predetermined number) are m in this embodiment, but they are different from each other. Good. However, the larger the number of samples, the more appropriate the distribution can be expressed.
  • represents a proportional relationship.
  • x, y) obtained by the first iteration is regarded as the prior distribution, and the second iteration is performed. That is, the parameter estimation process is performed again using the sample obtained as the result of the first process of the iterative process.
  • the posterior distribution obtained is expressed by the following equation (6).
  • x, y) obtained by the second iteration is regarded as the prior distribution, and the third iteration is performed. Therefore, the posterior distribution p (T) ( ⁇
  • Formula (8) represents Bayes' theorem that does not include the inverse temperature. That is, it indicates that Bayesian estimation is being performed.
  • the method shown in Non-Patent Document 1 is maximum likelihood estimation, that is, point estimation. However, in the method shown in the present embodiment, distribution estimation is performed by repeating parameter estimation processing using inverse temperature. It is possible.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing device 100.
  • the information processing device 100 includes an input / output interface 101, a memory 102, and a processor 103.
  • the input / output interface 101 is an interface for inputting / outputting data.
  • the input / output interface 101 is used to communicate with another device.
  • the input / output interface 101 is used to communicate with the simulator server 200.
  • the input / output interface 101 may be used to communicate with an external device such as a sensor device that outputs the observation data X n or the observation data Y n .
  • the input / output interface 101 may further include an interface connected to an input device such as a keyboard and a mouse. In this case, the input / output interface 101 acquires the data input by the user's operation.
  • the input / output interface 101 may further include an interface connected to a display. In this case, for example, the calculation result of the information processing device 100 is displayed on the display via the input / output interface 101.
  • the memory 102 is composed of, for example, a combination of a volatile memory and a non-volatile memory.
  • the memory 102 is used to store various data used for processing of the information processing apparatus 100, software (computer program) including one or more instructions executed by the processor 103, and the like.
  • the processor 103 reads the software (computer program) from the memory 102 and executes the software to perform the process of each configuration illustrated in FIG. 3 described later.
  • the processor 103 may be, for example, a microprocessor, an MPU (Micro Processor Unit), a CPU (Central Processing Unit), or the like.
  • the processor 103 may include a plurality of processors.
  • the above-described program can be stored in various types of non-transitory computer readable mediums and supplied to the computer.
  • Non-transitory computer readable media include various types of tangible storage media.
  • non-transitory computer readable media are magnetic recording media (eg flexible disk, magnetic tape, hard disk drive), magneto-optical recording media (eg magneto-optical disk), CD-ROM (Read Only Memory) CD-R, CD. -R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included.
  • the program may be supplied to the computer by various types of transitory computer readable mediums. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves.
  • the transitory computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • FIG. 3 is a block diagram showing an example of the functional configuration of the information processing apparatus 100.
  • the information processing device 100 includes a first parameter sample generation unit 110, a second type sample data acquisition unit 112, a kernel average calculation unit 114, a second parameter sample generation unit 116, and a repetition control unit 118. ..
  • the first parameter sample generation unit 110 is also referred to as a prior parameter sample generation unit
  • the kernel average calculation unit 114 is also referred to as a corresponding data calculation unit
  • the second parameter sample generation unit 116 is a new parameter sample generation unit. Also called.
  • the first parameter sample generation unit 110 receives the input of the first type of data (data X) and outputs the second type of data (data Y), and the prior distribution of the parameter ⁇ of the regression model r (x, ⁇ ).
  • the sample data of the parameter ⁇ is generated based on ⁇ ( ⁇ ).
  • the prior distribution ⁇ ( ⁇ ) is, for example, a uniform distribution. In the case of uniform distribution, sample data is randomly selected from the domain where the value of ⁇ is defined. When a distribution estimated to be close to the posterior distribution to some extent is obtained, the distribution may be set to the prior distribution ⁇ ( ⁇ ). In this case, sample data is selected from the domain according to the prior distribution ⁇ ( ⁇ ).
  • the prior distribution ⁇ ( ⁇ ) is not limited to the example described above, and is not necessarily given explicitly.
  • the prior distribution ⁇ ( ⁇ ) is set to, for example, a uniform distribution. Further, as described later, the user may set the prior distribution ⁇ ( ⁇ ).
  • the sample data of the parameter ⁇ is expressed by the following formula. It is expressed as (9).
  • d ⁇ represents the number of dimensions of the parameter (that is, the number of types of the parameter ⁇ ). That is, Expression (9) represents that the number of sets including d ⁇ types of parameters is m.
  • R represents a real number.
  • the sample data of the parameter ⁇ is shown as a real number in the d ⁇ dimension and follows the prior distribution ⁇ ( ⁇ ).
  • the prior distribution ⁇ ( ⁇ ) is stored in the memory 102 in advance.
  • the prior distribution ⁇ ( ⁇ ) is, for example, set in advance with accuracy according to the knowledge the user has about the simulation target.
  • the second type sample data acquisition unit 112 operates as follows.
  • the second type sample data acquisition unit 112 receives the parameters ⁇ generated by the first parameter sample generation unit 110, and uses the received m parameters ⁇ as the observation data (observation data X n ) of the first type data. To the simulator server 200. Also, after the second and subsequent iterations, the second type sample data acquisition unit 112 operates as follows.
  • the second type sample data acquisition unit 112 receives m samples of the parameter ⁇ generated by the second parameter sample generation unit 116, which will be described later, under the control of the repetition control unit 118, which will be described later.
  • the second type sample data acquisition unit 112 inputs the received m parameters ⁇ to the simulator server 200 together with the observation data (observation data X n ) of the first type of data.
  • the m number of parameters ⁇ and the observation data (observation data X n ) of the first type of data are input to the simulator server 200.
  • the simulator server 200 executes a simulation calculation for each of the m input parameters ⁇ based on the observation data (observation data X n ) of the first type of data. That is, the simulator server 200 executes m kinds of simulation calculations regarding the observation target according to the input m parameters ⁇ . The simulator server 200 executes m kinds of simulation calculations to obtain m kinds of simulation results ( ) Is calculated.
  • the second type sample data acquisition unit 112 acquires m types of simulation results from the simulator server 200 as second type sample data.
  • the above process can be expressed mathematically as follows.
  • the second-kind sample data acquisition unit 112 models the sample data represented by Expression (10), which has n elements (the same number as the number of elements of the observation data X n ) for each sample data of the parameter. (Simulator server 200).
  • the sample data acquired by the second type sample data acquisition unit 112 is represented as an n-dimensional real number, and the likelihood function p (y
  • the kernel average calculation unit 114 estimates the kernel average indicating the posterior distribution of parameters according to the kernel ABC. That is, the kernel average calculation unit 114 calculates the kernel average indicating the posterior distribution of the parameters based on the sample data of the parameters and the sample data of the second type. In particular, the kernel average calculation unit 114 calculates the kernel average using the kernel function including the inverse temperature.
  • the kernel ABC calculates the kernel average represented by the following equation (11) by using the sample data represented by the equation (9) and the sample data represented by the equation (10).
  • the kernel mean corresponds to the posterior distribution expressed by the kernel mean embeddings on the reproducing kernel Hilbert space (RKHS).
  • the kernel mean is an example of data corresponding to the distribution of parameters (posterior distribution).
  • the weight w j is represented by the following Expression (12).
  • H indicates the regenerative kernel Hilbert space. That is, the larger the weight (importance) w j , the more the sample It means that the kernel has a strong influence on the average. The smaller the weight w j , the more samples The kernel has a weak effect on the average.
  • the superscript T indicates the transposition of a matrix or a vector.
  • I represents an identity matrix
  • (where ⁇ > 0) is a regularization constant.
  • the vector k y (Y n ) and the Gram matrix (Gramm Matrix) G are represented by the following equations (13) and (14) by the kernel k y for the data vector Y n including real number elements. .. k y (Y n) is the observed data Y n, proximity of the sample data of formula (10) corresponding to the observation data Y n (norm), i.e. a function for calculating the degree of similarity.
  • the kernel average is a weighted average calculated using the calculated similarity to determine the weight of each parameter and according to the processing shown in Expression (11).
  • Formula (13) is a second type of data created by the simulator server 200 for a first type of data representing a plurality of samples and inputs, and a plurality of pieces of observation information observed when an input is given to the observation target. It can be said that the difference is calculated. Further, it can be said that the formula (11) represents a process of calculating a large weight for data similar to the observed data actually observed for the observation target among the m types of simulation results. it can. Similarly, it can be said that, of the m types of simulation results, a process of calculating a small weight is represented for data that is not similar to the observed data actually observed for the observation target. That is, it can be said that the expression (12) calculated using the expression (13) represents a process of calculating a weight according to the degree of similarity between the simulation result and the observation data. It can be said that this is a process using the covariate shift.
  • the ratio is closer to 1, it means that q 0 (x) at the time of training and q 1 (x) at the time of testing occur with the same probability.
  • the index is not limited to the ratio, and may be any index that represents the difference between the distribution during training and the distribution during testing, such as the difference between the two distributions.
  • the kernel function k y can be expressed as the following Expression (15).
  • Expression (15) corresponds to expression (20) described later, except for the difference in whether the inverse temperature depends on the training data (observation data).
  • (Y n , Y n ') on the left side of Expression (15) is expressed by an n-dimensional vector (a data set having n elements (that is, including n elements)) as a kernel function. It is shown that it is a two-variable function for the second type of data (however, the two variables are both vectors). That is, Y n on the left side indicates the first variable in the two-variable function, and Y n ′ on the left side indicates the second variable in the two-variable function. Then, Y i on the right side represents the i-th element of the n-dimensional vector input to the two-variable function as the first variable. In addition, Y i ′ on the right side indicates the i-th element of the n-dimensional vector input to the two-variable function as the second variable.
  • is the standard deviation of Gaussian noise for the second type of data. More specifically, in Expression (15), ⁇ is the standard deviation of the distribution of the entire observed data of the second type data used to calculate Expression (15).
  • the meaning of ⁇ in Expression (15) can be a value indicating a scale for measuring the similarity between the distribution of the second type of observation data and the distribution of the second type of sample data.
  • n is the number of data of the second type of data
  • ⁇ i is the reverse temperature
  • Y i and Y i ′ are the values of the second type of data. That is, in the equation (15), each element (for example, the type of observation data) included in the second-type data set is weighted by the inverse temperature ⁇ i . In other words, by setting the reverse temperature ⁇ i appropriately, it is possible to give priority to each type of the second type of data.
  • ⁇ i is the inverse temperature depending on the training data (observation data) ⁇ X i , Y i ⁇ . That is, the reverse temperature value can be set to be different for each data. That is, the reverse temperature ⁇ i can be set for each type of observation data (that is, the elements included in Y n ). For example, a larger value is set for the inverse temperature for the type of observation data having a high importance, and a small value is set for the inverse temperature for the observation data having a low importance.
  • the kernel average is calculated for the inverse temperature that does not depend on the training data (observation data) ⁇ X i , Y i ⁇ .
  • the kernel average calculator 114 calculates the kernel average represented by the following formula (16).
  • (Y n , Y n ') on the left side of Expression (20) is expressed by an n-dimensional vector (data set having n elements (that is, including n elements)) as a kernel function. It is shown that it is a two-variable function for the second type of data (however, the two variables are both vectors). That is, Y n on the left side indicates the first variable in the two-variable function, and Y n ′ on the left side indicates the second variable in the two-variable function. Then, Y i on the right side represents the i-th element of the n-dimensional vector input to the two-variable function as the first variable. In addition, Y i ′ on the right side indicates the i-th element of the n-dimensional vector input to the two-variable function as the second variable.
  • is the standard deviation of Gaussian noise for the second type of data. More specifically, in Expression (20), ⁇ is the standard deviation of the distribution of the entire observation data of the second type of data used to calculate Expression (20). In particular, the meaning of ⁇ in Expression (20) can be referred to as a value indicating a scale for measuring the similarity between the distribution of the second type of observation data and the distribution of the second type of sample data. Further, n is the number of data of the second type of data, ⁇ is the reverse temperature, and Y i and Y i ′ are the values of the second type of data.
  • is a constant that does not depend on the observation data. ⁇ corresponds to ⁇ (t) described above.
  • ⁇ (1) is used as the value of ⁇ in the first parameter estimation processing
  • ⁇ (2) is used as the value of ⁇ in the second parameter estimation processing
  • ⁇ (T) is used as the value of ⁇ in the T-th parameter estimation process.
  • the second parameter sample generating unit 116 generates sample data of parameters according to the posterior distribution defined by using the inverse temperature, based on the kernel average calculated by the kernel average calculating unit 114.
  • the posterior distribution defined using the inverse temperature is the posterior distribution defined based on Bayes' theorem by the prior distribution and the likelihood function controlled by the inverse temperature. Therefore, the posterior distribution is a distribution according to exp (- ⁇ nL n ( ⁇ ) + log ⁇ ( ⁇ )).
  • the second parameter sample generator 116 uses kernel harding to generate sample data of parameters according to the posterior distribution.
  • kernel harding m pieces of sample data ⁇ 1 , ..., ⁇ m according to the posterior distribution are generated by the update equations shown in the following equations (21) and (22).
  • h j 0, ..., M ⁇ 1.
  • argmax ⁇ h j ( ⁇ ) indicates the value of ⁇ that maximizes the value of h j ( ⁇ ).
  • h j is sequentially shown by Expression (22).
  • the value of the kernel average calculated according to the processing shown in Expression (16) is used. That is, the second parameter sample generation unit 116 uses the kernel average calculated by the kernel average calculation unit 114 and performs a predetermined process such as kernel harding to perform m pieces of sample data ⁇ suitable for representing the kernel average. , 1 , ..., ⁇ m are generated.
  • the information processing apparatus 100 executes a process of calculating m sample data according to the estimated posterior distribution for m sample data according to the prior distribution. Therefore, the process in the information processing device 100 can be said to be a process of adjusting the values of m pieces of sample data.
  • the repetition control unit 118 controls to repeat the parameter estimation processing by the kernel ABC and the kernel harding a predetermined number of times (T times). That is, the repetition control unit 118 controls the second type sample data acquisition unit 112 to use the sample generated by the second parameter sample generation unit 116 in the t-th repetition process in the t + 1-th repetition process. For this reason, the kernel average calculation unit 114 calculates the kernel average using the observation data X n and the sample generated by the second parameter sample generation unit 116 in the t-th iterative process in the t + 1-th process. Will be done. Therefore, the repetitive control unit 118 can also be described as follows.
  • the repetitive control unit 118 calculates the kernel average by using the sample generated by the second parameter sample generation unit 116 and the second type data created by the simulator server 200 for the first type data. Control. Then, the repetition control unit 118 controls such that the parameter estimation process is repeated while performing such control.
  • the repetition control unit 118 may set the value of the reverse temperature ⁇ used in each parameter estimation process. As described above, the total ⁇ set in each of the iterative processes is 1. Specifically, for example, the set reverse temperature may be constant regardless of the repetition of the parameter estimation process, or may change along with the repetition of the parameter estimation process.
  • the inverse temperature may be set to be smaller according to the number of repetitions of the parameter estimation process.
  • a value less than or equal to the previous value may be set as the influence degree
  • a value smaller than the previous value may be set as the influence degree at least once.
  • the reverse temperature may be set to increase according to the number of times the parameter estimation process is repeated.
  • a value greater than or equal to the previous value may be set as the influence degree in the repetition
  • a value larger than the previous value may be set as the influence degree in the repetition at least once.
  • the repetition control unit 118 may set the value of the reverse temperature based on a predetermined geometric progression.
  • the value of each term in the geometric progression may be used in order from the first term as the value of the inverse temperature set in each parameter estimation process.
  • the reverse temperature is set to be small according to the number of times the parameter estimation process is repeated.
  • the repetitive control unit 118 may set the reverse temperature as follows. That is, the iterative control unit 118 sets the value of each term of the geometric progression whose number of terms is T-1 in order from the first term as the value of the inverse temperature of the parameter estimation processing from the first time to the T-1th time. To do.
  • the repetition control unit 118 may determine the reverse temperature of this time so as to be equal to or lower than the previously set reverse temperature at each repetition.
  • the value of each term in the geometric progression may be used in order from the last term as the value of the inverse temperature set in each parameter estimation process.
  • the reverse temperature is set to increase according to the number of times the parameter estimation process is repeated.
  • the following settings may be made so that the sum of geometrical progressions consisting of a finite number of terms becomes one.
  • the iterative control unit 118 first sets the value of the (T-1) th term of the geometric progression having the number of terms of T-1 as the inverse temperature value. Then, the value of each term of this geometric progression is set in order from the last term as the value of the inverse temperature of the parameter estimation processing from the second time to the Tth time. In this way, the repetition control unit 118 may determine the reverse temperature of this time so as to be equal to or higher than the previously set reverse temperature at each time of repetition.
  • the reverse temperature can be set arbitrarily.
  • the posterior distribution is proportional to the product of the likelihood function and the prior distribution, and the inverse temperature is a power of the likelihood function.
  • the setting of the inverse temperature indicates to what extent the influence of the likelihood function is reflected on the posterior distribution. Therefore, how to set the inverse temperature in the repeated parameter estimation process may be determined according to the reliability of the likelihood function used. For example, when the reliability of the likelihood function is high, a value larger than the reverse temperature in the first and subsequent iterations of the parameter estimation process may be set as the reverse temperature.
  • a value smaller than the reverse temperature in the subsequent iterations may be set as the reverse temperature in the first parameter estimation process.
  • how to set the inverse temperature in the repeated parameter estimation process may be determined according to the reliability of the prior distribution used. For example, when the reliability of the prior distribution is high, a value smaller than the reverse temperature in the first and subsequent iterations of the parameter estimation process may be set as the reverse temperature. On the contrary, when the reliability of the prior distribution is low, a value larger than the inverse temperature in the subsequent iterations may be set as the inverse temperature in the first parameter estimation process.
  • FIG. 4 is a flowchart showing an example of the operation of the information processing device 100. The operation will be described below with reference to FIG.
  • step S100 the first parameter sample generation unit 110 generates sample data of the parameter ⁇ based on the prior distribution ⁇ ( ⁇ ).
  • the sample data generated by the first parameter sample generation unit 110 is input to the simulator server 200 in the first parameter estimation process.
  • the generated sample data is input to the simulator server 200 by the second type sample data acquisition unit 112.
  • the second type sample data acquisition unit 112 acquires the second type sample data calculated by the simulator server 200. That is, the second type sample data acquisition unit 112 inputs X n , which is the first type data, from the training data set ⁇ X n , Y n ⁇ acquired in advance to the model and outputs the output from the model. get.
  • the training data set ⁇ X n , Y n ⁇ is information in which the first type data X n and the second type data Y n are associated with each other.
  • the second type of data Y n is, for example, the information observed about the observation target by actually performing processing (operation) on the first type of data X n by the observation target. Represents.
  • the simulator server 200 calculates the data Y by performing the calculation according to the value represented by the parameter ⁇ on the value of the data X. This simulates the process (operation) of the observation target.
  • the parameter ⁇ represents, for example, the relationship between input and output in each process (operation).
  • the second type sample data acquisition unit 112 acquires the second type sample data calculated according to the model in which the sample data generated in step S100 is set as a parameter. To do.
  • the second type sample data acquisition unit 112 sets the sample data generated in step S103 described below as a model parameter. Then, the second type sample data calculated according to the model is acquired.
  • step S101 the simulator server 200 accepts X n , which is the first type of data representing the input given to the observation target, as an input, and performs the processing according to the input parameter ⁇ with the first type of data.
  • the observation target is simulated by applying it to a certain X n .
  • the simulator server 200 displays the simulation result ( ) Is created.
  • the kernel average calculation unit 114 calculates the kernel average indicating the posterior distribution of the parameters by the kernel ABC using the obtained sample data.
  • the posterior distribution is the posterior distribution defined by using the inverse temperature, as described above.
  • the kernel average calculation unit 114 calculates the kernel average using the kernel function including the inverse temperature represented by the equation (20). In other words, the kernel average calculator 114 determines the parameter distribution by determining the importance of each sample of the parameters according to the difference between the observed data and the sample data for the second type of data and the inverse temperature. Calculate the data corresponding to.
  • step S103 the second parameter sample generator 116 generates sample data of the parameters according to the posterior distribution defined using the inverse temperature, based on the kernel average calculated in step S102.
  • step S104 the repetition control unit 118 determines whether or not the number of repetitions of the parameter estimation process has reached a predetermined number (T).
  • the repetition control unit 118 uses the sample data obtained in step S103 and controls again to perform the processing of steps S101 to S103.
  • step S105 the repetition control unit 118 outputs the sample data group obtained in step S103 as a posterior distribution of parameters.
  • the parameter estimation process using the inverse temperature is repeated.
  • Bayesian estimation is performed, and the posterior distribution of parameters can be acquired.
  • it is Bayesian estimation in which the parameter estimation process is repeatedly executed, it is suitable for a model such as a singular model where it is difficult to obtain an appropriate sample of the posterior distribution with one parameter estimation process. You can expect to get a sample.
  • the posterior distribution can be estimated even with respect to a singular model such as a neural network.
  • the parameter estimation process is repeatedly executed, it is possible to expect to obtain an appropriate sample even when the prior distribution is not appropriate.
  • the sample data of the parameters output in step S105 of FIG. 4 may be used for the simulation by the simulator server 200. That is, the repetition control unit 118 may input the sample data (that is, the sample data of the parameter ⁇ ) generated in step S103 at the end of the repeating process to the simulator server 200.
  • the simulator server 200 receives m pieces of the sample data and executes the simulation calculation regarding the observation target based on the received sample data. Specifically, the simulator server 200 executes m types of simulation processing according to the sample data for given data of the first type X n . As a result, the simulator server 200 calculates m types of simulation results for given first type data X n .
  • the m kinds of simulation results are not always different from each other and may include the same result.
  • the information processing apparatus 100 receives m types of simulation results. Then, the information processing apparatus 100 calculates a simulation result that is a total of m types of simulation results. For example, the information processing apparatus 100 calculates the average of m types of simulation results. That is, the information processing apparatus 100 calculates the simulation result for the given first type data X n . The information processing apparatus 100 may calculate the simulation result for a given first type of data X n, for example, by calculating a weighted average of m types of simulation results.
  • the information processing apparatus 100 executes the processing described above with reference to FIG. 4 so that the simulation result calculated by the simulator server 200 and the observation information Y n match (match) with the sample data of the parameter ⁇ .
  • the above-described simulation result calculated by the information processing apparatus 100 is a simulation result according to the sample data according to the posterior distribution.
  • the information processing apparatus 100 can calculate the simulation result that matches the observation information based on the simulation result created by the simulator server 200. Therefore, the information processing apparatus 100 can calculate a simulation result that matches the observation information by creating a value that matches the observation information for the sample data of the parameter ⁇ given to the simulator server 200.
  • FIG. 5 is a block diagram showing the configuration of the information processing device 1.
  • the information processing device 1 includes a correspondence data calculation unit 2, a new parameter sample generation unit 3, and a repetition control unit 4.
  • the correspondence data calculation unit 2 acquires a plurality of pieces of observation information (Y n ) observed when an input (X n ) is given to the observation target, and the second type of data ( ) And the inverse temperature ( ⁇ ), the importance of each sample of the parameters is determined.
  • the second type of data is data created by a simulator for simulating an observation target based on a sample of parameters for a plurality of samples and the first type of data representing the input.
  • the corresponding data calculation unit 2 calculates the data corresponding to the parameter distribution.
  • the new parameter sample generation unit 3 uses the data corresponding to the parameter distribution calculated by the corresponding data calculation unit 2 to generate a new parameter sample according to a predetermined process (for example, kernel harding).
  • the repetition control unit 4 uses the new sample generated by the new parameter sample generation unit 3 and the second type data created by the simulator for the first type data, and the corresponding data calculation unit 2 uses the parameter Control is performed to calculate data corresponding to the distribution of. Then, the repetition control unit 4 controls so that the processes of the corresponding data calculation unit 2 and the new parameter sample generation unit 3 are repeated. With such a configuration, Bayesian estimation is performed. Therefore, the information processing device 1 can acquire the posterior distribution of the parameters.
  • Appendix 1 A plurality of pieces of observation information that are observed when an input is given to an observation target, and a simulator that simulates the observation target based on a sample of parameters is created for the plurality of samples and the first type data representing the input.
  • Corresponding data calculation means for determining the importance of each sample according to the difference from the second type of data and the degree of influence of the sample on the distribution of the parameter, and calculating the data corresponding to the distribution of the parameter.
  • New parameter sample generation means for generating a new sample of the parameter according to a predetermined process using data corresponding to the distribution of the parameter
  • the corresponding data calculation unit determines the distribution of the parameters by using the new sample created by the new parameter sample creation unit and the second type data created by the simulator for the first type data.
  • An information processing apparatus comprising: a control unit that controls to calculate corresponding data, and a repetition control unit that controls to repeat the processes of the corresponding data calculation unit and the new parameter sample generation unit.
  • Appendix 2 The information processing apparatus according to appendix 1, wherein the degree of influence changes as the processes of the corresponding data calculation unit and the new parameter sample generation unit are repeated.
  • Appendix 3 The value less than or equal to the previous value is set in the repetition in the repetition, and the value smaller than the previous value is set in the repetition at least once in the repetition. ..
  • (Appendix 4) The value greater than or equal to the previous value is set in the repetition in the repetition, and the value larger than the previous value is set in the repetition at least once in the repetition. ..
  • Appendix 8 The information processing apparatus according to appendix 7, wherein the correspondence data calculation unit calculates the kernel average by a kernel ABC (Kernel Approximate Bayesian Computation) using the kernel function represented by the following equation.
  • is the standard deviation of Gaussian noise for the second type of data
  • n is the number of elements of the second type of data
  • is the inverse temperature
  • Y i and Y i ' is the value of the second type data.
  • Appendix 9 9. The information processing device according to any one of appendices 1 to 8, wherein the influence degree of each repetition is set such that the total of the influence degrees for the number of times of repetition is 1.
  • Appendix 10 An information processing system comprising: the information processing device according to any one of appendices 1 to 9; and the simulator.
  • Appendix 11 The information processing system according to appendix 10, wherein the simulator executes processing based on the sample generated by the new parameter sample generation means after repeating the processing of the corresponding data calculation means and the new parameter sample generation means.
  • Appendix 12 Depending on the information processing device, A plurality of pieces of observation information that are observed when an input is given to an observation target, and a simulator that simulates the observation target based on a sample of parameters is created for the plurality of samples and the first type data representing the input.
  • a first process of determining the importance of each sample according to the difference from the second type of data and the degree of influence of the sample on the distribution of the parameter, and calculating data corresponding to the distribution of the parameter Run Performing a second process of generating a new sample of the parameter according to a predetermined process using the data corresponding to the distribution of the parameter, While controlling to execute the first process by using the second sample data created by the simulator with respect to the new sample and the first type data generated by the second process.
  • An information processing method for controlling the first process and the second process to be repeated.
  • a plurality of pieces of observation information that are observed when an input is given to an observation target, and a simulator that simulates the observation target based on a sample of parameters is created for the plurality of samples and the first type data representing the input.
  • Corresponding data calculation step of determining the importance of each sample according to the difference from the second type of data and the degree of influence of the sample on the distribution of the parameter, and calculating data corresponding to the distribution of the parameter.
  • a new parameter sample generation step of generating a new sample of the parameter according to a predetermined process using the data corresponding to the distribution of the parameter; Control is performed to execute the corresponding data calculation step by using the new sample created in the new parameter sample creation step and the second type data created by the simulator with respect to the first type data.
  • a non-transitory computer-readable medium that stores a program that causes a computer to execute a repetitive control step of controlling to repeat the processing of the corresponding data calculation step and the new parameter sample generation step.
  • Information Processing Device 1 Information Processing Device 2 Corresponding Data Calculation Unit 3 New Parameter Sample Generation Unit 4 Repetition Control Unit 10 Information Processing System 100 Information Processing Device 101 Input / Output Interface 102 Memory 103 Processor 110 First Parameter Sample Generation Unit 112 Second Type Sample Data Acquisition Unit 114 kernel average calculation unit 116 second parameter sample generation unit 118 repetition control unit 200 simulator server

Abstract

モデルのパラメータの事後分布を推定する。情報処理装置(1)は、観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する対応データ算出部(2)と、前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する新規パラメータサンプル生成部(3)と、前記対応データ算出部(2)及び前記新規パラメータサンプル生成部(3)の処理を繰り返すよう制御する繰り返し制御部(4)とを備える。

Description

情報処理装置、情報処理システム、情報処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体
 本発明は情報処理装置、情報処理システム、情報処理方法、及びプログラムに関する。
 シミュレーションで用いるモデルのパラメータを求めるための技術が提案されている。例えば、非特許文献1は、カーネルABC(Kernel Approximate Bayesian Computation)及びカーネルハーディング(Kernel Herding)を繰り返し実行することにより、パラメータの点推定を行う手法について提案している。
 また、その他の関連技術として、いくつかの文献を挙げる。
 特許文献1に開示された技術では、適応制御器として動作するコンピュータは、対象とする物理システムの時間発展がマルコフ過程として記述される際に、物理システムの状態に対する制御量を決定する。そして、このコンピュータは、物理システムの状態量を目標値に制御するための制御信号を、確率的な逐次的重点サンプリング法により適応的に生成する。
 特許文献2には、風力発電による発電量を予測する風力発電量予測装置が開示されている。この風力発電量予測装置は、第1風速と前記第1風速における第1発電量とを示すデータを近似する多項式を生成し、この多項式に基づいてそれぞれ算出される第2風速及び前記第2風速における第2発電量の誤差分散に基づく最尤推定値を計算する。そして、風力発電量予測装置が、前記最尤推定値に基づいて、情報量規準を算出する。
 特許文献3は、目的変数の平均および分散が、連続値を取る説明変数に依存している場合においても、正確な回帰分析ができる情報処理装置について開示している。
特開2005-084834号公報 特開2017-141747号公報 国際公開第2011/074509号
Takafumi Kajihara, Motonobu Kanagawa, Keisuke Yamazaki, Kenji Fukumizu, "Kernel Recursive ABC: Point Estimation with Intractable Likelihood", arXiv:1802.08404v2, 12 June 2018.
 しかし、非特許文献1に開示された手法は、最尤推定法の一種であるため、当該手法では点推定が行なわれる。すなわち、分布の推定が行なわれない。このため、例えば、特異モデル(singular model)のパラメータを推定する場合には、適切な推定ができない恐れがある。このような背景から、モデルのパラメータの事後分布を推定することができる新規な手法の提案が求められている。なお、特許文献1乃至3においても、モデルのパラメータの事後分布を推定する手法については開示されていない。
 そこで、本明細書に開示される実施形態が達成しようとする目的の1つは、モデルのパラメータの事後分布を推定することができる情報処理装置等を提供することにある。
 第1の態様にかかる情報処理装置は、
 観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する対応データ算出手段と、
 前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する新規パラメータサンプル生成手段と、
 前記新規パラメータサンプル生成手段により生成された前記新たなサンプル及び前記第1種類のデータに対して前記シミュレータが作成した前記第2種類のデータを用いて、前記対応データ算出手段が前記パラメータの分布に対応するデータを算出するよう制御しつつ、前記対応データ算出手段及び前記新規パラメータサンプル生成手段の処理を繰り返すよう制御する繰り返し制御手段と
 を備える。
 第2の態様にかかる情報処理システムは、
 前記情報処理装置と
 前記シミュレータと
 を備える。
 第3の態様にかかる情報処理方法は、
 情報処理装置によって、
 観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する第1の処理を実行し、
 前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する第2の処理を実行し、
 前記第2の処理により生成された前記新たなサンプル及び前記第1種類のデータに対して前記シミュレータが作成した前記第2種類のデータを用いて、前記第1の処理を実行するよう制御しつつ、前記第1の処理及び前記第2の処理を繰り返すよう制御する。
 第4の態様にかかるプログラムは、
 観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する対応データ算出ステップと、
 前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する新規パラメータサンプル生成ステップと、
 前記新規パラメータサンプル生成ステップで生成された前記新たなサンプル及び前記第1種類のデータに対して前記シミュレータが作成した前記第2種類のデータを用いて、前記対応データ算出ステップを実行するよう制御しつつ、前記対応データ算出ステップ及び前記新規パラメータサンプル生成ステップの処理を繰り返すよう制御する繰り返し制御ステップと
 をコンピュータに実行させる。
 上述の態様によれば、モデルのパラメータの事後分布を推定することができる情報処理装置等を提供することができる。
実施形態に係る情報処理システムの構成の一例を示すブロック図である。 実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 実施の形態にかかる情報処理装置の機能構成の一例を示すブロック図である。 実施の形態にかかる情報処理装置の動作の一例を示すフローチャートである。 その他の実施の形態にかかる情報処理装置の機能構成の一例を示すブロック図である。
 以下の各実施形態においては、理解しやすさのため数学的な用語を用いて説明するが、各用語は必ずしも数学的に定義されている値でなくてもよい。たとえば、距離は、ユークリッドノルムや、1ノルム等、数学的に定義することができる。しかし、距離は、そのような値に1を足したような値であってもよい。すなわち、以下の実施形態にて用いられる用語は、数学的に定義されている用語でなくてもよい。
 以下、図面を参照して本発明の実施の形態について説明する。
 図1は、実施形態に係る情報処理システム10の構成の一例を示すブロック図である。図1に示すように、情報処理システム10は、情報処理装置100とシミュレータサーバ(シミュレータ)200とを備える。
 シミュレータサーバ200は、第1種類のデータの入力を受けて第2種類のデータを出力するシミュレータである。すなわち、シミュレータサーバ200は、パラメータθにより規定されるモデルに従って、第1種類のデータから、第2種類のデータを予測するシミュレーション処理を行なう。たとえば、シミュレータサーバ200は、パラメータθのサンプルに基づき、観測対象における処理(動作)をシミュレーションする処理を実行する。サンプルは、パラメータθの値を表す。したがって、複数のサンプルは、当該パラメータθの値として設定される複数の例(データ)を表している。
 以下では、第1種類のデータをデータXと称し、第2種類のデータをデータYと称する。また、観測データの個数をn(nは正の整数)として、データXの観測データ(第1種類の観測データ)を観測データXと表記し、データYの観測データ(第2種類の観測データ)を観測データYと表記する。また、観測データXの要素をX、・・・、Xと表記し、観測データYの要素をY、・・・、Yと表記する。情報処理装置100は、データX(iは、1≦i≦nの整数)とデータYとが一対一に対応付けられた観測データ(従って、X-Y平面にプロット可能な観測データ)を取得する。
 以降においては、観測データを観測情報と表すこともある。また、観測データYを複数の観測情報と表すこともある。この場合に、また、各要素Y、・・・、Yを、それぞれ、観測情報と表すこともある。
 観測データXおよびYは特定の種類のデータに限定されず、実測されたいろいろなデータとすることができる。観測データを得るための実測方法は特定の方法に限定されず、ユーザなど人による計数または測定、あるいはセンサを用いたセンシングなど、いろいろな方法を採用可能である。
 例えば、観測データXの要素は、観測対象を構成している構成要素の状態を表すものであってもよい。観測データYの要素は、センサ等を用いて観測対象に関して観測された状態を表すものであってもよい。例えばユーザが、製造工場の生産性を分析したい場合、観測データXは、当該製造工場における各設備の稼働状況を表すものであってもよい。観測データYは、複数の設備によって構成されるラインにて製造される製品の個数を表すものであってもよい。また、観測データXは、製造工場において製品の原材料となる素材を表していてもよい。この場合に、観測データXによって表されている素材は、1つ以上の加工工程を経て製品に加工される。当該製品は、1種類の製品であるとは限らず、複数の製品(たとえば、製品A、製品B、副産物C)であってもよい。観測データYは、たとえば、製品Aの個数、製品Bの個数、及び、副産物Cの個数(または、生産量等)を表している。
 観測対象、および、観測データは、上述した例に限定されず、たとえば、加工工場における設備であってもよいし、ある施設を建設する場合における建設システムであってもよい。
 ここで、観測データXおよびYは、独立に同一の真の分布q(x,y)=q(x)q(y|x)に従って生じる。真のモデルq(y|x)を推測するための統計モデルは、p(y|x,θ)と表せる。q(y|x)は、事象xが生じたときに、事象yが生じる確率を表している。また、「q(x)q(y|x)」は、「q(x)×q(y|x)」を表している。以降においては、説明の便宜上、数学的な慣習に倣い、掛け算を表す演算子「×」を省略して表す。
 シミュレータサーバ200が用いる回帰モデルr(x,θ)は、パラメータθの値の設定、および、変数xへのデータXの値の入力を受けて、データYの値を出力する。たとえば、シミュレータサーバ200は、データX(xの値)に対して、パラメータθのサンプルを含む演算を施すことにより、データYの値を出力する。なお、モデルには、必ずしも微分可能な関数が用いられなくてもよい。シミュレータサーバ200は、観測対象における処理又は動作をシミュレーションする。
 たとえば、観測対象が製造工場である場合に、シミュレータサーバ200は、データXの値に対して、パラメータθが表す値に従った演算を施しデータYを算出することによって、製造工場における各プロセスをシミュレーションする。この場合に、パラメータθは、たとえば、各プロセスにおける入出力間の関係性を表している。パラメータθは、プロセスにおける状態を表しているともいうことができる。パラメータθは、1つであるとは限らず、複数であってもよい。すなわち、回帰モデルr(x,θ)は、シミュレータサーバ200が実行している全体の処理を、符号rを用いて総称的に表しているということもできる。
 ここで、ベイズの統計的推論における表記について定義する。マイナス対数尤度関数(minus log likelihood function)L(θ)は以下の式(1)のように定義される。
<式(1)>
Figure JPOXMLDOC01-appb-M000002
 回帰問題がガウスノイズを伴う回帰関数でモデル化される場合、統計モデル(尤度関数)p(y|x,θ)は、以下の式(2)のように表される。統計モデルp(y|x,θ)は、回帰モデルr(x,θ)についての統計的な性質を示すモデルである。ただし、この回帰モデルr(x,θ)は、必ずしも、数学的な式を用いて明示的に表されているとは限らず、たとえば、xと、θとを入力として、r(x,θ)を出力とするシミュレーション等の処理を表していてもよい。一般的に、回帰モデルでは、与えられたデータに合うように数式の係数が決められる。しかし、本実施形態における回帰モデルr(x,θ)は、そのような数式が与えられていない場合であってもよい。すなわち、本実施形態における回帰モデルr(x,θ)は、入力x及びθと、出力r(x,θ)とが関連付けされた情報を表していればよい。
<式(2)>
Figure JPOXMLDOC01-appb-M000003
 ここで、σ(ただし、σ>0)は、ガウスノイズの標準偏差である。すなわち、σはガウスノイズを伴う回帰関数で定義されるモデルにおける当該ガウスノイズの標準偏差である。また、r(x,θ)は、シミュレータサーバ200が、回帰モデルによって表す処理に従い算出する値である。dはXの次元数(すなわち、上述した観測データの個数)である。expは、ネイピア数を底とする指数関数を表す。||は、ノルムを算出することを表す。πは、円周率を表す。
 また、逆温度を含むベイズの定理は、以下の式(3)のように表される。
<式(3)>
Figure JPOXMLDOC01-appb-M000004
 ここで、π(θ)は、パラメータθについての事前分布である。また、p(θ|x,y)は、パラメータθについての事後分布である。β(ただし、β>0)は、逆温度と呼ばれるパラメータである。上記ベイズの定理によれば、パラメータθの事後分布は、パラメータθの事前分布π(θ)と、尤度関数p(y|x,θ)とに基づいて、算出することができる。
 尤度関数p(y|x,θ)が解析的に数式として表現できない場合、すなわち尤度関数p(y|x,θ)が微分できない場合、パラメータθの事後分布を算出することは困難である。しかしながら、そのような場合であっても、例えば次のような手法により、事後分布に従うサンプルを取得することができる。以下、カーネルABC(Kernel Approximate Bayesian Computation)及び所定の処理(カーネルハーディング(Kernel Herding)等)を用いたパラメータθのサンプルデータの取得について説明する。
 カーネルABCは、カーネル平均を算出することにより、事後分布を推定するアルゴリズムである。カーネルABCでは、m個のサンプルデータに基づきシミュレーションを行い、m個のパラメータのサンプルデータの重み(重要度)を、観測対象に対して観測された観測データに基づき決定することで事後分布が得られる。たとえば、シミュレーション結果が観測データに類似しているほど、当該シミュレーション結果に用いられたパラメータを重視する重みを算出する。逆に、シミュレーション結果が観測データに類似していないほど、当該シミュレーション結果に用いられたパラメータを軽視する重みを算出する。
 カーネルハーディング(所定の処理の一例)は、事後分布を示すカーネル平均から事後分布に従ったサンプルを取得するアルゴリズムである。カーネルハーディングは、求めたカーネル平均に最も近くなる場合のサンプルを逐次的に決めていく。本実施形態においては、カーネルABC、及び、カーネルハーディングにおける処理によって、m個のサンプルに対して、新たにm個のサンプルが算出されるため、サンプルの値を調整しているともいうことができる。
 カーネルハーディングは、サンプルを逐次的に決めていく方法であるが、事後分布(本実施形態では、推定された事後分布)に従ったサンプルを取得する所定の処理は、カーネルハーディングに限定されない。すなわち、所定の処理は、事後分布(本実施形態では、推定された事後分布)に従ったサンプルを作成する方法であればよい。
 本実施の形態では、式(3)に示したとおり、逆温度βが含まれる事後分布に従ったパラメータθのサンプルデータを取得する。具体的には、カーネルABC及びカーネルハーディングを用いてサンプルデータを取得する情報処理装置100について示す。
 逆温度βは、事後分布を推定する処理において、各サンプルに基づき算出される分布が当該推定される分布に与える影響を平準化するレベルを表している値を表しているということもできる。この場合に、逆温度βが高い値であるほど、平準化するレベルは低い。言い換えると、逆温度βが高い値であるほど、推定される分布は、個々の分布の影響を受けやすくなる。これに対して、逆温度βが低い値であるほど、平準化するレベルは高い。言い換えると、逆温度βが低い値であるほど、推定される分布は、一部の分布の影響を受けにくくなる。また、逆温度βは、当該推定される分布に対してサンプルが影響している程度を表す影響度を表しているとも言うことができる。すなわち、逆温度βは、当該推定される分布に対するサンプルの影響度を表しているとも言うことができる。
 次に、本実施の形態におけるパラメータθの事後分布の推定方法について説明する。本実施の形態では、カーネルABC及びカーネルハーディングによるパラメータ推定処理を繰り返し実行することで、パラメータθの事後分布のサンプルを取得する。すなわち、本実施の形態では、パラメータ推定処理により取得されたパラメータθの事後分布のサンプルを、事前分布からのサンプルとみなして、パラメータ推定処理を繰り返すことにより、パラメータθの事後分布のサンプルを取得する。これについて、数式を用いて説明する。なお、情報処理装置100は、上述した処理の繰り返しをT回、行なう。ただし、Tは2以上の整数である。また、t番目の(ただし、t=1,2,・・・,T)繰り返し処理で用いられる逆温度の値をβ(t)とする。ここで、繰り返し処理のそれぞれで設定されるβ(t)の合計は1であるとする。すなわち、以下の式(4)が成り立つとする。ただし、0<β(t)<1である。
<式(4)>
Figure JPOXMLDOC01-appb-M000005
 言い換えると、この場合には、繰り返し回数分の影響度の合計が1となるように、繰り返しの各回の影響度が設定される。
 繰り返し処理の1回目(t=1)、すなわち、1回のパラメータ推定処理では、ベイズの定理(式(3)参照)に基づいて、以下の式(5)で表される事後分布が得られる。なお、1回のパラメータ推定処理では、パラメータθの事前分布から得られた第1の所定数のサンプルに基づいて、第2の所定数のパラメータが得られる。事前分布から得るサンプル数(すなわち第1の所定数)と、パラメータ推定処理結果として得られるサンプル数(すなわち第2の所定数)は本実施の形態ではいずれもm個であるが、互いに異なってもよい。ただし、サンプル数は多いほど分布を適切に表現できる。
<式(5)>
Figure JPOXMLDOC01-appb-M000006
 なお、「∝」は、比例関係を表している。ここで、繰り返し処理の1回目により得られた事後分布p(1)(θ|x,y)を、事前分布とみなし、繰り返し処理の2回目を行なう。すなわち、繰り返し処理の1回目の処理結果として得られたサンプルを用いて、再度、パラメータ推定処理を行なう。その結果、得られる事後分布(繰り返し処理の2回目により得られた事後分布p(2)(θ|x,y))は、以下の式(6)で表される。
<式(6)>
Figure JPOXMLDOC01-appb-M000007
 同様に、繰り返し処理の2回目により得られた事後分布p(2)(θ|x,y)を、事前分布とみなし、繰り返し処理の3回目を行なう。したがって、繰り返し処理のT回目で得られる事後分布p(T)(θ|x,y)は、以下の式(7)で表される。
<式(7)>
Figure JPOXMLDOC01-appb-M000008
 つまり、式(4)を用いると、事後分布p(T)(θ|x,y)は、以下の式(8)で表される。
<式(8)>
Figure JPOXMLDOC01-appb-M000009
 式(8)は、逆温度を含まないベイズの定理を表している。つまり、ベイズ推定が行なわれていることを示している。非特許文献1で示された手法は、最尤推定、すなわち、点推定であるが、本実施の形態で示される手法では、逆温度を用いたパラメータ推定処理を繰り返すことにより、分布の推定を可能にしている。
 以下、情報処理装置100について具体的に説明する。
 図2は、情報処理装置100のハードウェア構成の一例を示すブロック図である。情報処理装置100は、入出力インタフェース101、メモリ102、及びプロセッサ103を含む。
 入出力インタフェース101は、データの入出力を行うインタフェースである。例えば、入出力インタフェース101は、他の装置と通信するために使用される。この場合、例えば、入出力インタフェース101は、シミュレータサーバ200と通信するために使用される。入出力インタフェース101は、観測データX又は観測データYを出力するセンサ装置などの外部装置と通信するために使用されてもよい。また、入出力インタフェース101は、さらに、キーボード及びマウスなどの入力デバイスと接続するインタフェースを含んでもよい。この場合、入出力インタフェース101は、ユーザの操作により入力されたデータを取得する。また、入出力インタフェース101は、さらに、ディスプレイと接続するインタフェースを含んでもよい。この場合、例えば、入出力インタフェース101を介して、ディスプレイに、情報処理装置100の演算結果などが表示される。
 メモリ102は、例えば、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ102は、情報処理装置100の処理に用いられる各種データの他、プロセッサ103により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)などを格納するために使用される。
 プロセッサ103は、メモリ102からソフトウェア(コンピュータプログラム)を読み出して実行することで、後述する図3に示される各構成の処理を行う。プロセッサ103は、例えば、マイクロプロセッサ、MPU(Micro Processor Unit)、又はCPU(Central Processing Unit)などであってもよい。プロセッサ103は、複数のプロセッサを含んでもよい。
 また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 図3は、情報処理装置100の機能構成の一例を示すブロック図である。情報処理装置100は、第1のパラメータサンプル生成部110と、第2種類サンプルデータ取得部112と、カーネル平均算出部114と、第2のパラメータサンプル生成部116と、繰り返し制御部118とを有する。なお、第1のパラメータサンプル生成部110は、事前パラメータサンプル生成部とも称され、カーネル平均算出部114は対応データ算出部とも称され、第2のパラメータサンプル生成部116は、新規パラメータサンプル生成部とも称される。
 第1のパラメータサンプル生成部110は、第1種類のデータ(データX)の入力を受けて第2種類のデータ(データY)を出力する回帰モデルr(x,θ)のパラメータθの事前分布π(θ)に基づいて、パラメータθのサンプルデータを生成する。事前分布π(θ)は、たとえば、一様分布である。一様分布である場合には、θの値が定義されている定義域からランダムにサンプルデータが選ばれる。ある程度事後分布に近いと推定される分布が得られている場合には、当該分布を事前分布π(θ)に設定してもよい。この場合には、当該定義域から、事前分布π(θ)に従いサンプルデータが選ばれる。事前分布π(θ)は、上述した例に限定されず、また、陽に与えられているとも限らない。事前分布π(θ)が陽に与えられていない場合には、事前分布π(θ)を、たとえば、一様分布に設定する。また、後述するように、事前分布π(θ)をユーザが設定してもよい。
 すなわち、第1のパラメータサンプル生成部110が生成するサンプルデータの数をm(mは正の整数)とし、jを1≦j≦mの整数とすると、パラメータθのサンプルデータは、以下の式(9)のように表される。ここで、dθは、パラメータの次元数(すなわち、パラメータθの種類の個数)を示す。すなわち、式(9)は、dθ種類のパラメータを含むセットが、m個であること表す。Rは、実数を示す。
 式(9)に示されるように、パラメータθのサンプルデータは、dθ次元の実数として示され、事前分布π(θ)に従う。なお、事前分布π(θ)は、予めメモリ102に記憶されている。事前分布π(θ)は、例えば、ユーザが、シミュレーション対象に関して有する知識に応じた精度で予め設定されている。
<式(9)>
Figure JPOXMLDOC01-appb-M000010
 上述した繰り返し処理の1回目において、第2種類サンプルデータ取得部112は、次のように動作する。第2種類サンプルデータ取得部112は、第1のパラメータサンプル生成部110が生成したパラメータθを受け取り、受け取ったm個のパラメータθを第1種類のデータの観測データ(観測データX)と供にシミュレータサーバ200に入力する。また、繰り返し処理の2回目以降においては、第2種類サンプルデータ取得部112は、次のように動作する。第2種類サンプルデータ取得部112は、後述する第2のパラメータサンプル生成部116が生成したパラメータθについてのm個のサンプルを、後述する繰り返し制御部118の制御にしたがって受け取る。そして、第2種類サンプルデータ取得部112は、受け取ったm個のパラメータθを第1種類のデータの観測データ(観測データX)と供にシミュレータサーバ200に入力する。
 これにより、シミュレータサーバ200には、当該m個のパラメータθと、第1種類のデータの観測データ(観測データX)とが入力される。
 シミュレータサーバ200は、入力された当該m個のパラメータθのそれぞれに関して、第1種類のデータの観測データ(観測データX)に基づき、シミュレーション計算を実行する。すなわち、シミュレータサーバ200は、入力した当該m個のパラメータθに応じて、観測対象に関するm種類のシミュレーション計算を実行する。シミュレータサーバ200は、m種類のシミュレーション計算を実行することによって、m種類のシミュレーション結果(
Figure JPOXMLDOC01-appb-M000011
)を算出する。
 第2種類サンプルデータ取得部112は、シミュレータサーバ200からm種類のシミュレーション結果を、第2種類のサンプルデータとして取得する。上述した処理を数学的に表せば、以下のように表すことができる。
 第2種類サンプルデータ取得部112は、パラメータのサンプルデータ毎に、n個(観測データXの要素数と同数)の要素を有する、式(10)のように表されるサンプルデータを、モデル(シミュレータサーバ200)から取得する。
<式(10)>
Figure JPOXMLDOC01-appb-M000012
 式(10)に示されるように、第2種類サンプルデータ取得部112が取得するサンプルデータは、n次元の実数として示され、回帰モデルr(x,θ)の尤度関数p(y|θ)に、パラメータのサンプルデータを入力した分布に従う。
 カーネル平均算出部114は、カーネルABCに従い、パラメータの事後分布を示すカーネル平均を推定する。すなわち、カーネル平均算出部114は、パラメータのサンプルデータと第2種類のサンプルデータとに基づいて、パラメータの事後分布を示すカーネル平均を算出する。特に、カーネル平均算出部114は、逆温度が含まれるカーネル関数を用いてカーネル平均を算出する。
 ここで、カーネルABCについて説明する。式(9)で示されるサンプルデータと、式(10)で示されるサンプルデータを用いて、カーネルABCでは、以下の式(11)で示されるカーネル平均を算出する。カーネル平均は、事後分布をカーネル平均埋め込み(Kernel Mean Embeddings)により再生核ヒルベルト空間(Reproducing Kernel Hilbert Space;RKHS)上で表現したものに該当する。カーネル平均は、パラメータの分布(事後分布)に対応するデータの一例である。
<式(11)>
Figure JPOXMLDOC01-appb-M000013
 ここで、重みwは、以下の式(12)のように示される。Hは、再生核ヒルベルト空間を示す。すなわち、重み(重要度)wが大きな値であるほど、サンプル
Figure JPOXMLDOC01-appb-M000014
に関するカーネルが平均に与える影響が強いことを表す。重みwが小さな値であるほど、サンプル
Figure JPOXMLDOC01-appb-M000015
に関するカーネルが平均に与える影響が弱いことを表す。
<式(12)>
Figure JPOXMLDOC01-appb-M000016
 なお、上付きのTは、行列またはベクトルの転置を示す。また、Iは、単位行列を示し、δ(ただし、δ>0)は、正則化定数(regularization constant)である。また,ベクトルk(Y)及びグラム行列(Gramm Matrix)Gは、実数の要素からなるデータベクトルYに対するカーネルkにより、以下の式(13)、式(14)のように示される。k(Y)は、観測データYと、当該観測データYに対応する式(10)のサンプルデータの近さ(ノルム)、すなわち類似度を算出する関数である。言い換えると、式(13)により、観測データ(観測データX)に対してシミュレータサーバ200が出力したm種類のシミュレーション結果のそれぞれと、当該観測データに対して観測対象が実際に出力した観測データとの類似度が算出される。カーネル平均は、算出された類似度を用いて各パラメータの重みを決定し、式(11)に示す処理に従い算出される重み付き平均である。
<式(13)>
Figure JPOXMLDOC01-appb-M000017
<式(14)>
Figure JPOXMLDOC01-appb-M000018
 式(13)は、観測対象に入力を与えた場合に観測される複数の観測情報と、シミュレータサーバ200が複数のサンプル及び入力を表す第1種類のデータに対して作成した第2種類のデータとの差異を算出しているともいえる。また、式(11)は、m種類のシミュレーション結果のうち、観測対象に関して実際に観測された観測データに類似しているデータに対しては、大きい重みを算出する処理を表しているということもできる。同様に、m種類のシミュレーション結果のうち、観測対象に関して実際に観測された観測データに類似していないデータに対しては、小さい重みを算出する処理を表しているということもできる。すなわち、式(13)を用いて算出される式(12)は、シミュレーション結果と、観測データとが類似している程度に応じた重みを算出する処理を表しているということもできる。これは、共変量シフトを用いた処理であるともいうことができる。
 共変量シフト(Covariate Shift)に対するカーネルABCでは、訓練データセット{X,Y}が従う分布q(x)は、テスト又は予測用のデータセットが従う分布q(x)と異なるが、真の関数関係p(y|x)は同じである。すなわち、共変量シフトは、与えられたxに対してyを算出する処理自体は、複数のxに対しても一定であるものの、入力である分布が、訓練時とテスト時とでは異なっていることを表している。ここで、確率密度q(x)及びq(x)が既知、もしくはそれらの比q(x)/q(x)が既知であるとする。この場合に、当該比が1に近いほど、訓練時のq(x)と、テスト時のq(x)とは同じような確率で生じることを表す。当該比が1よりも大きな値であるほど、テスト時よりも訓練時の確率が高いことを表す。また、当該比が1よりも小さな値であるほど、訓練時よりもテスト時の確率が高いことを表す。すなわち、当該比は、データxが訓練時の分布と、テスト時の分布とのいずれに近いかを表す指標である。当該指標は、比に限定されず、たとえば両分布の差といった、訓練時の分布と、テスト時の分布との差異を表す指標であればよい。確率密度q(x)及びq(x)が既知、もしくはそれらの比q(x)/q(x)が既知である場合、上記式(13)及び式(14)の右辺におけるカーネル関数kは、以下の式(15)のように表すことができる。式(15)は逆温度が訓練データ(観測データ)に依存しているか否かという点での違いを除き、後述する式(20)に対応している。
<式(15)>
Figure JPOXMLDOC01-appb-M000019
 なお、式(15)の左辺における(Y,Y’)は、カーネル関数が、n次元ベクトル(要素数がnである(すなわち、n個の要素を含む)データセット)で表された第2種類のデータについての2変数関数(ただし、2つの変数はいずれもベクトル)であることを示している。すなわち、左辺におけるYは、2変数関数における第1の変数を示し、左辺におけるY’は、2変数関数における第2の変数を示している。そして、右辺のYは、第1の変数として2変数関数に入力されたn次元ベクトルのi番目の要素を示している。また、右辺のY’は、第2の変数として2変数関数に入力されたn次元ベクトルのi番目の要素を示している。
 式(15)において、σは第2種類のデータについてのガウスノイズの標準偏差である。より、詳細には、式(15)において、σは、式(15)を算出するために用いられる第2種類のデータの観測データ全体からなる分布の標準偏差である。特に、式(15)におけるσの意味としては、第2種類の観測データの分布と第2種類のサンプルデータの分布の類似度を測るためのスケールを示す値ということができる。また、nは第2種類のデータのデータ数であり、βは逆温度であり、Y及びY’は第2種類のデータの値である。すなわち、式(15)においては、第2種類のデータセットに含まれている要素(たとえば、観測データの種類)ごとにβなる逆温度にて重み付けされている。言い換えると、当該逆温度であるβを適切に設定することによって、第2種類のデータの種類ごとに優先度をつけることが可能である。
 式(15)において、βは、訓練データ(観測データ){X,Y}に依存した逆温度である。すなわち、データ毎に逆温度の値が相互に異なるよう設定することができる。すなわち、観測データの種類(すなわち、Yに含まれている要素)ごとに、逆温度βを設定することができる。たとえば、重要度が高い観測データの種類に関しては逆温度に、より大きな値を設定し、重要度が低い観測データに対しては逆温度に小さな値を設定する。
 本実施の形態では、訓練データ(観測データ){X,Y}に依存しない逆温度について、カーネル平均を算出する。具体的には、カーネル平均算出部114は以下の式(16)で示されるカーネル平均を算出する。
<式(16)>
Figure JPOXMLDOC01-appb-M000020
 ここで、重み
Figure JPOXMLDOC01-appb-M000021
は、以下の式(17)のように示される。
<式(17)>
Figure JPOXMLDOC01-appb-M000022
 ベクトル
Figure JPOXMLDOC01-appb-M000023
及びグラム行列
Figure JPOXMLDOC01-appb-M000024
は、実数の要素からなるデータベクトルYに対するカーネル
Figure JPOXMLDOC01-appb-M000025
により、以下の式(18)、式(19)のように示される。
<式(18)>
Figure JPOXMLDOC01-appb-M000026
<式(19)>
Figure JPOXMLDOC01-appb-M000027
 ここで、式(18)及び式(19)における右辺のカーネル関数
Figure JPOXMLDOC01-appb-M000028
は、以下の式(20)のように表すことができる。
<式(20)>
Figure JPOXMLDOC01-appb-M000029
 なお、式(20)の左辺における(Y,Y’)は、カーネル関数が、n次元ベクトル(要素数がnである(すなわち、n個の要素を含む)データセット)で表された第2種類のデータについての2変数関数(ただし、2つの変数はいずれもベクトル)であることを示している。すなわち、左辺におけるYは、2変数関数における第1の変数を示し、左辺におけるY’は、2変数関数における第2の変数を示している。そして、右辺のYは、第1の変数として2変数関数に入力されたn次元ベクトルのi番目の要素を示している。また、右辺のY’は、第2の変数として2変数関数に入力されたn次元ベクトルのi番目の要素を示している。
 式(15)に示された処理と、式(20)に示された処理とを比較すると、式(15)においては、第2種類のデータセットに含まれている要素(たとえば、観測データの種類)ごとにβなる逆温度にて重み付けされている。これに対して、式(20)においては、第2種類のデータセットに含まれている要素(たとえば、観測データの種類)は、同じ逆温度にて重み付けされている。
 式(20)において、σは第2種類のデータについてのガウスノイズの標準偏差である。より、詳細には、式(20)において、σは、式(20)を算出するために用いられる第2種類のデータの観測データ全体からなる分布の標準偏差である。特に、式(20)におけるσの意味としては、第2種類の観測データの分布と第2種類のサンプルデータの分布の類似度を測るためのスケールを示す値ということができる。また、nは第2種類のデータのデータ数であり、βは逆温度であり、Y及びY’は第2種類のデータの値である。ここで、βは、観測データに依存しない定数である。βは、上述したβ(t)に相当する。したがって、具体的には、1回目のパラメータ推定処理においてはβの値としてβ(1)が用いられ、2回目のパラメータ推定処理においてはβの値としてβ(2)が用いられる。同様に、T回目のパラメータ推定処理においてはβの値としてβ(T)が用いられる。
 第2のパラメータサンプル生成部116は、カーネル平均算出部114が算出したカーネル平均に基づいて、逆温度を用いて定義される事後分布に従ったパラメータのサンプルデータを生成する。ここで、逆温度を用いて定義される事後分布とは、事前分布と、逆温度により制御される尤度関数とにより、ベイズの定理に基づいて定義される事後分布である。したがって、事後分布は、exp(-βnL(θ)+logπ(θ))に従う分布である。
 具体的には、第2のパラメータサンプル生成部116は、カーネルハーディングを用いて、事後分布に従ったパラメータのサンプルデータを生成する。カーネルハーディングでは、以下の式(21)及び式(22)に示す更新式により、事後分布に従うm個のサンプルデータθ,・・・,θを生成する。
<式(21)>
Figure JPOXMLDOC01-appb-M000030
<式(22)>
Figure JPOXMLDOC01-appb-M000031
 ここで、j=0,・・・,m-1である。また、argmaxθ(θ)は、h(θ)の値を最大にするθの値を示す。hは、式(22)により逐次的に示される。hの初期値h及びμには、式(16)に示された処理に従い算出されたカーネル平均の値が使われる。すなわち、第2のパラメータサンプル生成部116は、カーネル平均算出部114が算出したカーネル平均を用いて、カーネルハーディング等の所定の処理により、当該カーネル平均を表すのに適したm個のサンプルデータθ,・・・,θを生成する。言い換えると、情報処理装置100は、事前分布に従ったm個のサンプルデータに対して、推定された事後分布に従ったm個のサンプルデータを算出する処理を実行する。したがって、情報処理装置100における処理は、m個のサンプルデータの値を調整している処理であるともいうことができる。
 繰り返し制御部118は、カーネルABC及びカーネルハーディングによるパラメータ推定処理を所定の回数(T回)、繰り返すよう制御する。つまり、繰り返し制御部118は、t回目の繰り返し処理で第2のパラメータサンプル生成部116により生成されたサンプルを、第2種類サンプルデータ取得部112がt+1回目の繰り返し処理において用いるように制御する。このため、カーネル平均算出部114は、t+1回目の処理において、観測データXと、t回目の繰り返し処理で第2のパラメータサンプル生成部116により生成されたサンプルとを用いて、カーネル平均を算出することとなる。よって、繰り返し制御部118は次のように説明することもできる。すなわち、繰り返し制御部118は、第2のパラメータサンプル生成部116により生成されたサンプル及び第1種のデータに対してシミュレータサーバ200が作成した第2種類のデータを用いて、カーネル平均を算出するよう制御する。そして、繰り返し制御部118は、そのような制御を行いつつ、パラメータ推定処理を繰り返すよう制御する。
 なお、繰り返し制御部118は、各パラメータ推定処理において用いられる逆温度βの値を設定してもよい。なお、上述した通り、繰り返し処理のそれぞれで設定されるβの合計は1である。具体的は、例えば、設定される逆温度は、パラメータ推定処理の繰り返しによらず一定であってもよいし、パラメータ推定処理の繰り返しに伴い変化してもよい。
 パラメータ推定処理の繰り返しによらず一定の逆温度を設定する場合、繰り返し制御部118は、逆温度の値としてβ(t)=1/Tを設定する。
 パラメータ推定処理の繰り返しに伴い変化する逆温度を設定する場合、例えば、パラメータ推定処理の繰り返し回数に応じて逆温度が小さくなるように設定してもよい。換言すると、繰り返しにおいて、前回の値以下の値が影響度に設定され、かつ、繰り返しにおいて、少なくとも1回は、前回の値よりも小さい値が影響度に設定されてもよい。また、パラメータ推定処理の繰り返し回数に応じて逆温度が大きくなるように設定してもよい。換言すると、繰り返しにおいて、前回の値以上の値が影響度に設定され、かつ、繰り返しにおいて、少なくとも1回は、前回の値よりも大きい値が影響度に設定されてもよい。
 パラメータ推定処理の繰り返しに伴い変化する逆温度を設定する場合、繰り返し制御部118は、所定の等比数列に基づいて、逆温度の値を設定してもよい。初項a、公比r(ただし-1<r<1)の等比数列の無限の項の総和である無限等比級数は、a/(1-r)に収束する。したがって、繰り返し制御部118は、式(4)を満たすよう、例えば、a/(1-r)=1を満たす任意のa,rで表される等比数列を用いてもよい。
 例えば、等比数列の各項の値を、初項から順に、パラメータ推定処理のそれぞれにおいて設定される逆温度の値として用いてもよい。この場合、パラメータ推定処理の繰り返し回数に応じて逆温度が小さくなるように設定される。ただし、現実的には、パラメータ推定処理の繰り返し回数は有限回である。したがって、例えば、繰り返し制御部118は、次のように逆温度の設定を行なってもよい。すなわち、繰り返し制御部118は、項数がT-1である等比数列の各項の値を、初項から順に、1回目からT-1回目までのパラメータ推定処理の逆温度の値として設定する。そして、T回目のパラメータ推定処理では、この等比数列のT-1番目の項の値を再度逆温度の値として設定する。このように、繰り返し制御部118は、繰り返しの各回において、前回設定した逆温度以下になるように、今回の逆温度を決定してもよい。
 また、等比数列の各項の値を、末項から順に、パラメータ推定処理のそれぞれにおいて設定される逆温度の値として用いてもよい。この場合、パラメータ推定処理の繰り返し回数に応じて逆温度が大きくなるように設定される。この場合も、有限個の項からなる等比数列の総和が1となるように、次のように設定が行なわれてもよい。例えば、繰り返し制御部118は、まず、1回目のパラメータ推定処理では、項数がT-1である等比数列のT-1番目の項の値を逆温度の値として設定する。そして、2回目からT回目までのパラメータ推定処理の逆温度の値として、この等比数列の各項の値を、終項から順に、設定する。このように、繰り返し制御部118は、繰り返しの各回において、前回設定した逆温度以上になるように、今回の逆温度を決定してもよい。
 このように、逆温度は任意に設定することができる。式(5)、式(6)、又は式(7)に示されるように、事後分布は尤度関数と事前分布の積に比例しており、逆温度は尤度関数に対する冪数となっている。したがって、逆温度の設定は、事後分布に対し、どの程度、尤度関数の影響を反映させるかを示している。このため、繰り返されるパラメータ推定処理において逆温度をどのように設定するかは、用いる尤度関数の信頼性に応じて定められてもよい。例えば、尤度関数の信頼性が高い場合には、パラメータ推定処理の1回目に以降の繰り返しにおける逆温度よりも大きな値を逆温度に設定してもよい。逆に、尤度関数の信頼性が低い場合には、パラメータ推定処理の1回目では以降の繰り返しにおける逆温度よりも小さな値を逆温度に設定してもよい。また、繰り返されるパラメータ推定処理において逆温度をどのように設定するかは、用いる事前分布の信頼性に応じて定められてもよい。例えば、事前分布の信頼性が高い場合には、パラメータ推定処理の1回目に以降の繰り返しにおける逆温度よりも小さな値を逆温度に設定してもよい。逆に、事前分布の信頼性が低い場合には、パラメータ推定処理の1回目では以降の繰り返しにおける逆温度よりも大きな値を逆温度に設定してもよい。
 次に、情報処理装置100の動作についてフローチャートに基づいて説明する。図4は、情報処理装置100の動作の一例を示すフローチャートである。以下、図4に沿って、動作を説明する。
 ステップS100において、第1のパラメータサンプル生成部110が、事前分布π(θ)に基づいて、パラメータθのサンプルデータを生成する。第1のパラメータサンプル生成部110が生成したサンプルデータは、1回目のパラメータ推定処理において、シミュレータサーバ200に入力される。本実施の形態では、生成したサンプルデータは、一例として、第2種類サンプルデータ取得部112によりシミュレータサーバ200に入力される。
 次に、ステップS101において、第2種類サンプルデータ取得部112が、シミュレータサーバ200によって算出された第2種類のサンプルデータを取得する。すなわち、第2種類サンプルデータ取得部112は、予め取得されている訓練データセット{X,Y}のうち、第1種類のデータであるXをモデルに入力し、モデルからの出力を取得する。訓練データセット{X,Y}は、第1種類のデータであるXと第2種類のデータであるYとが関連付けされた情報である。この場合に、第2種類のデータであるYは、たとえば、第1種類のデータであるXに対して観測対象が実際に処理(動作)を施すことによって、観測対象に関して観測された情報を表す。
 上述したように、シミュレータサーバ200は、パラメータθが表す値に従った演算をデータXの値に対して施すことによってデータYを算出する。これによって、観測対象における処理(動作)をシミュレーションする。この場合に、パラメータθは、たとえば、各処理(動作)における入出力間の関係性を表している。
 1回目のパラメータ推定処理の場合、ステップS101において、第2種類サンプルデータ取得部112は、ステップS100で生成されたサンプルデータがパラメータとして設定されたモデルに従い算出された第2種類のサンプルデータを取得する。これに対し、2回目以降のパラメータ推定処理の場合、第2種類サンプルデータ取得部112は、後述するステップS103で生成されたサンプルデータをモデルのパラメータとして設定する。そして、そのモデルに従い算出された第2種類のサンプルデータを取得する。
 ステップS101では、シミュレータサーバ200は、観測対象に対して与えられた入力を表す第1種類のデータであるXを入力として受け付け、入力されたパラメータθに従った処理を第1種類のデータであるXに対して施すことによって当該観測対象をシミュレーションする。この結果、シミュレータサーバ200は、当該シミュレーションした結果を表すシミュレーション結果(
Figure JPOXMLDOC01-appb-M000032
)を作成する。
 次に、ステップS102において、カーネル平均算出部114は、得られたサンプルデータを用いて、カーネルABCにより、パラメータの事後分布を示すカーネル平均を算出する。なお、この事後分布は、上述の通り、逆温度を用いて定義される事後分布である。カーネル平均算出部114は、式(20)で示される逆温度が含まれるカーネル関数を用いてカーネル平均を算出する。言い換えると、カーネル平均算出部114は、第2種類のデータについての観測データとサンプルデータとの差異と、逆温度とに応じて、パラメータの各サンプルの重要度を決定することにより、パラメータの分布に対応するデータを算出する。
 次に、ステップS103において、第2のパラメータサンプル生成部116が、ステップS102で算出されたカーネル平均に基づいて、逆温度を用いて定義される事後分布に従ったパラメータのサンプルデータを生成する。
 次に、ステップS104において、繰り返し制御部118は、パラメータ推定処理の繰り返し回数が所定の回数(T)に達したか否かを判定する。繰り返し回数が所定の回数に達していない場合、繰り返し制御部118は、ステップS103で得られたサンプルデータを用いて、再度、ステップS101からステップS103の処理が行なわれるよう制御する。繰り返し回数が所定の回数に達している場合、ステップS105において、繰り返し制御部118は、ステップS103で得られたサンプルデータ群を、パラメータの事後分布として出力する。
 以上、実施の形態について説明した。本実施の形態では、逆温度を用いたパラメータ推定処理を繰り返す。これにより、ベイズ推定が行なわれ、パラメータの事後分布を取得することができる。特に、パラメータ推定処理が繰り返し実行されるベイズ推定であるため、特異モデルなどのように、1回のパラメータ推定処理では事後分布の適切なサンプルの取得が難しいようなモデルに対しても、適切なサンプルを取得することが期待できる。例えば、ニューラルネットワークなどのような特異モデルについても、事後分布を推定すること可能となる。また、パラメータ推定処理が繰り返し実行されるため、事前分布が適切ではない場合であっても、適切なサンプルを取得することが期待できる。
 なお、図4のステップS105にて出力されたパラメータのサンプルデータは、シミュレータサーバ200によるシミュレーションに用いてもよい。すなわち、繰り返し制御部118は、繰り返し処理の最後にステップS103にて生成したサンプルデータ(すなわち、パラメータθのサンプルデータ)をシミュレータサーバ200に入力してもよい。この場合に、シミュレータサーバ200は、m個の当該サンプルデータを受け取り、受け取った当該サンプルデータに基づき、観測対象に関するシミュレーション計算を実行する。具体的には、シミュレータサーバ200は、所与の第1種類のデータであるXに対して、当該サンプルデータに従ったm種類のシミュレーション処理を実行する。この結果、シミュレータサーバ200は、所与の第1種類のデータであるXに対してm種類のシミュレーション結果を算出する。m種類のシミュレーション結果は、必ずしも相互に異なっているとは限らず、同じ結果を含んでいてもよい。
 その後、情報処理装置100は、m種類のシミュレーション結果を受け取る。そして、情報処理装置100は、m種類のシミュレーション結果を総合したシミュレーション結果を算出する。たとえば、情報処理装置100は、m種類のシミュレーション結果の平均を算出する。すなわち、情報処理装置100は、所与の第1種類のデータであるXに対するシミュレーション結果を算出する。情報処理装置100は、たとえば、m種類のシミュレーション結果の重み付き平均を算出することによって、所与の第1種類のデータであるXに対するシミュレーション結果を算出してもよい。
 情報処理装置100は、図4を参照しながら上述した処理を実行することによって、シミュレータサーバ200が算出するシミュレーション結果と、観測情報Yとが合う(適合する)ように、パラメータθのサンプルデータを算出する。算出されたサンプルデータは、事後分布に従ったデータであるので、情報処理装置100が算出する上述したシミュレーション結果は、事後分布に従ったサンプルデータに従ったシミュレーション結果である。言い換えると、情報処理装置100は、シミュレータサーバ200によって作成されるシミュレーション結果に基づき、観測情報に合うようなシミュレーション結果を算出することができる。よって、シミュレータサーバ200に対して与えるパラメータθのサンプルデータに関して、観測情報に合うような値を作成することによって、情報処理装置100は、当該観測情報に適合したシミュレーション結果を算出することができる。
 なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。たとえば、次のような情報処理装置1も実施の形態の一つである。図5は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、対応データ算出部2と、新規パラメータサンプル生成部3と、繰り返し制御部4とを有する。
 対応データ算出部2は、観測対象に入力(X)を与えた場合に観測される複数の観測情報(Y)と、第2種類のデータ(
Figure JPOXMLDOC01-appb-M000033
)との差異と、逆温度(β)とに応じて、パラメータの各サンプルの重要度を決定する。なお、第2種類のデータとは、観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数のサンプル及び前記入力を表す第1種類のデータに対して作成したデータである。そして、対応データ算出部2は、パラメータの分布に対応するデータを算出する。
 新規パラメータサンプル生成部3は、対応データ算出部2が算出したパラメータの分布に対応するデータを用いて、所定の処理(たとえば、カーネルハーディングなど)に従い、パラメータの新たなサンプルを生成する。
 また、繰り返し制御部4は新規パラメータサンプル生成部3により生成された新たなサンプル及び第1種のデータに対してシミュレータが作成した第2種類のデータを用いて、対応データ算出部2が前記パラメータの分布に対応するデータを算出するよう制御する。そして、繰り返し制御部4は対応データ算出部2及び新規パラメータサンプル生成部3の処理を繰り返すよう制御する。
 このような構成によれば、ベイズ推定が行なわれる。このため、情報処理装置1は、パラメータの事後分布を取得することができる。
 また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する対応データ算出手段と、
 前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する新規パラメータサンプル生成手段と、
 前記新規パラメータサンプル生成手段により生成された前記新たなサンプル及び前記第1種類のデータに対して前記シミュレータが作成した前記第2種類のデータを用いて、前記対応データ算出手段が前記パラメータの分布に対応するデータを算出するよう制御しつつ、前記対応データ算出手段及び前記新規パラメータサンプル生成手段の処理を繰り返すよう制御する繰り返し制御手段と
 を備える情報処理装置。
(付記2)
 前記影響度が前記対応データ算出手段及び前記新規パラメータサンプル生成手段の処理の繰り返しに伴い変化する
 付記1に記載の情報処理装置。
(付記3)
 繰り返しにおいて、前回の値以下の値が前記影響度に設定され、かつ、繰り返しにおいて、少なくとも1回は、前回の値よりも小さい値が前記影響度に設定される
 付記2に記載の情報処理装置。
(付記4)
 繰り返しにおいて、前回の値以上の値が前記影響度に設定され、かつ、繰り返しにおいて、少なくとも1回は、前回の値よりも大きい値が前記影響度に設定される
 付記2に記載の情報処理装置。
(付記5)
 前記影響度が、所定の等比数列に基づいて変化する
 付記3又は4に記載の情報処理装置。
(付記6)
 前記影響度が前記対応データ算出手段及び前記新規パラメータサンプル生成手段の処理の繰り返しによらず一定である
 付記1に記載の情報処理装置。
(付記7)
 前記パラメータの分布に対応するデータは、カーネル平均であり、
 前記対応データ算出手段は、前記影響度を逆温度として含むカーネル関数を用いて、前記カーネル平均を算出し、
 前記新規パラメータサンプル生成手段は、前記対応データ算出手段によって算出された前記カーネル平均を用いて前記サンプルを生成する
 付記1乃至付記6のいずれか1項に記載の情報処理装置。
(付記8)
 前記対応データ算出手段は、下記の式で示される前記カーネル関数を用いたカーネルABC(Kernel Approximate Bayesian Computation)により、前記カーネル平均を算出する
 付記7に記載の情報処理装置。
 ただし、下記の式において、σは前記第2種類のデータについてのガウスノイズの標準偏差であり、nは前記第2種類のデータの要素数であり、βは前記逆温度であり、Y及びY’は前記第2種類のデータの値である。
Figure JPOXMLDOC01-appb-M000034
(付記9)
 繰り返し回数分の前記影響度の合計が1となるように繰り返しの各回の前記影響度が設定される
 付記1乃至8のいずれか1項に記載の情報処理装置。
(付記10)
 付記1乃至付記9のいずれか1項に記載の情報処理装置と
 前記シミュレータと
 を備える情報処理システム。
(付記11)
 前記シミュレータが、前記対応データ算出手段及び前記新規パラメータサンプル生成手段の処理の繰り返し後に、前記新規パラメータサンプル生成手段が生成した前記サンプルに基づき処理を実行する
 付記10に記載の情報処理システム。
(付記12)
 情報処理装置によって、
 観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する第1の処理を実行し、
 前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する第2の処理を実行し、
 前記第2の処理により生成された前記新たなサンプル及び前記第1種類のデータに対して前記シミュレータが作成した前記第2種類のデータを用いて、前記第1の処理を実行するよう制御しつつ、前記第1の処理及び前記第2の処理を繰り返すよう制御する
 情報処理方法。
(付記13)
 観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する対応データ算出ステップと、
 前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する新規パラメータサンプル生成ステップと、
 前記新規パラメータサンプル生成ステップで生成された前記新たなサンプル及び前記第1種類のデータに対して前記シミュレータが作成した前記第2種類のデータを用いて、前記対応データ算出ステップを実行するよう制御しつつ、前記対応データ算出ステップ及び前記新規パラメータサンプル生成ステップの処理を繰り返すよう制御する繰り返し制御ステップと
 をコンピュータに実行させる
 プログラムが格納された非一時的なコンピュータ可読媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2018年11月22日に出願された日本出願特願2018-219527を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1  情報処理装置
2  対応データ算出部
3  新規パラメータサンプル生成部
4  繰り返し制御部
10  情報処理システム
100  情報処理装置
101  入出力インタフェース
102  メモリ
103  プロセッサ
110  第1のパラメータサンプル生成部
112  第2種類サンプルデータ取得部
114  カーネル平均算出部
116  第2のパラメータサンプル生成部
118  繰り返し制御部
200  シミュレータサーバ

Claims (13)

  1.  観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する対応データ算出手段と、
     前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する新規パラメータサンプル生成手段と、
     前記新規パラメータサンプル生成手段により生成された前記新たなサンプル及び前記第1種類のデータに対して前記シミュレータが作成した前記第2種類のデータを用いて、前記対応データ算出手段が前記パラメータの分布に対応するデータを算出するよう制御しつつ、前記対応データ算出手段及び前記新規パラメータサンプル生成手段の処理を繰り返すよう制御する繰り返し制御手段と
     を備える情報処理装置。
  2.  前記影響度が前記対応データ算出手段及び前記新規パラメータサンプル生成手段の処理の繰り返しに伴い変化する
     請求項1に記載の情報処理装置。
  3.  繰り返しにおいて、前回の値以下の値が前記影響度に設定され、かつ、繰り返しにおいて、少なくとも1回は、前回の値よりも小さい値が前記影響度に設定される
     請求項2に記載の情報処理装置。
  4.  繰り返しにおいて、前回の値以上の値が前記影響度に設定され、かつ、繰り返しにおいて、少なくとも1回は、前回の値よりも大きい値が前記影響度に設定される
     請求項2に記載の情報処理装置。
  5.  前記影響度が、所定の等比数列に基づいて変化する
     請求項3又は請求項4に記載の情報処理装置。
  6.  前記影響度が前記対応データ算出手段及び前記新規パラメータサンプル生成手段の処理の繰り返しによらず一定である
     請求項1に記載の情報処理装置。
  7.  前記パラメータの分布に対応するデータは、カーネル平均であり、
     前記対応データ算出手段は、前記影響度を逆温度として含むカーネル関数を用いて、前記カーネル平均を算出し、
     前記新規パラメータサンプル生成手段は、前記対応データ算出手段によって算出された前記カーネル平均を用いて前記サンプルを生成する
     請求項1乃至請求項6のいずれか1項に記載の情報処理装置。
  8.  前記対応データ算出手段は、下記の式で示される前記カーネル関数を用いたカーネルABC(Kernel Approximate Bayesian Computation)により、前記カーネル平均を算出する
     請求項7に記載の情報処理装置。
     ただし、下記の式において、σは前記第2種類のデータについてのガウスノイズの標準偏差であり、nは前記第2種類のデータの要素数であり、βは前記逆温度であり、Y及びY’は前記第2種類のデータの値である。
    Figure JPOXMLDOC01-appb-M000001
  9.  繰り返し回数分の前記影響度の合計が1となるように繰り返しの各回の前記影響度が設定される
     請求項1乃至請求項8のいずれか1項に記載の情報処理装置。
  10.  請求項1乃至請求項9のいずれか1項に記載の情報処理装置と
     前記シミュレータと
     を備える情報処理システム。
  11.  前記シミュレータが、前記対応データ算出手段及び前記新規パラメータサンプル生成手段の処理の繰り返し後に、前記新規パラメータサンプル生成手段が生成した前記サンプルに基づき処理を実行する
     請求項10に記載の情報処理システム。
  12.  情報処理装置によって、
     観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する第1の処理を実行し、
     前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する第2の処理を実行し、
     前記第2の処理により生成された前記新たなサンプル及び前記第1種類のデータに対して前記シミュレータが作成した前記第2種類のデータを用いて、前記第1の処理を実行するよう制御しつつ、前記第1の処理及び前記第2の処理を繰り返すよう制御する
     情報処理方法。
  13.  観測対象に入力を与えた場合に観測される複数の観測情報と、前記観測対象をパラメータのサンプルに基づきシミュレーションするシミュレータが複数の前記サンプル及び前記入力を表す第1種類のデータに対して作成した第2種類のデータとの差異と、前記パラメータの分布に対する前記サンプルの影響度とに応じて、各前記サンプルの重要度を決定し、前記パラメータの分布に対応するデータを算出する対応データ算出ステップと、
     前記パラメータの分布に対応するデータを用いて、所定の処理に従い、前記パラメータの新たなサンプルを生成する新規パラメータサンプル生成ステップと、
     前記新規パラメータサンプル生成ステップで生成された前記新たなサンプル及び前記第1種類のデータに対して前記シミュレータが作成した前記第2種類のデータを用いて、前記対応データ算出ステップを実行するよう制御しつつ、前記対応データ算出ステップ及び前記新規パラメータサンプル生成ステップの処理を繰り返すよう制御する繰り返し制御ステップと
     をコンピュータに実行させる
     プログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2019/043821 2018-11-22 2019-11-08 情報処理装置、情報処理システム、情報処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体 WO2020105468A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/295,294 US20220004908A1 (en) 2018-11-22 2019-11-08 Information processing apparatus, information processing system, information processing method, and non-transitory computer readable medium storing program
JP2020558269A JP7097541B2 (ja) 2018-11-22 2019-11-08 情報処理装置、情報処理システム、情報処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-219527 2018-11-22
JP2018219527 2018-11-22

Publications (1)

Publication Number Publication Date
WO2020105468A1 true WO2020105468A1 (ja) 2020-05-28

Family

ID=70773422

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/043821 WO2020105468A1 (ja) 2018-11-22 2019-11-08 情報処理装置、情報処理システム、情報処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US20220004908A1 (ja)
JP (1) JP7097541B2 (ja)
WO (1) WO2020105468A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113779875A (zh) * 2021-08-31 2021-12-10 润联软件系统(深圳)有限公司 基于图神经模型的风力发电量预测方法及其相关设备
WO2022059189A1 (ja) * 2020-09-18 2022-03-24 日本電気株式会社 データ算出装置、データ算出方法および記録媒体
CN114766023A (zh) * 2020-10-30 2022-07-19 京东方科技集团股份有限公司 数据处理方法、装置及系统、电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180210413A1 (en) * 2015-07-31 2018-07-26 Schlumberger Technology Corporation Method and apparatus of determining a state of a system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8781782B2 (en) * 2010-09-30 2014-07-15 Siemens Aktiengesellschaft System and method for conditional multi-output regression for machine condition monitoring
EP3000053A4 (en) * 2013-05-30 2017-10-04 President and Fellows of Harvard College Systems and methods for performing bayesian optimization
WO2017173489A1 (en) * 2016-04-05 2017-10-12 Deakin University Systems and methods for making a product
WO2018013247A2 (en) * 2016-06-02 2018-01-18 Brown University Physics informed learning machine
CA3137428A1 (en) * 2019-05-23 2020-11-26 Xin Qiu Quantifying the predictive uncertainty of neural networks via residual estimation with i/o kernel

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180210413A1 (en) * 2015-07-31 2018-07-26 Schlumberger Technology Corporation Method and apparatus of determining a state of a system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HASEGAWA, TAKANORI: "Time-series filtering for replicated observations via a kernel approximate bayesian computation", IEEE TRANSACTIONS ON SIGNAL PROCESSING, vol. 66, no. 23, 1 October 2018 (2018-10-01), pages 6148 - 6161, XP011703588, DOI: 10.1109/TSP.2018.2872864 *
KAJIHARA, TAKAFUMI: "Kernel recursive ABC: Point estimation with intractable likelihood", ARXIV: 1802.08404V2, 12 June 2018 (2018-06-12), XP081235860, Retrieved from the Internet <URL:https://arxiv.org/pdf/1802.08404.pdf> [retrieved on 20191126] *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059189A1 (ja) * 2020-09-18 2022-03-24 日本電気株式会社 データ算出装置、データ算出方法および記録媒体
CN114766023A (zh) * 2020-10-30 2022-07-19 京东方科技集团股份有限公司 数据处理方法、装置及系统、电子设备
CN114766023B (zh) * 2020-10-30 2023-05-16 京东方科技集团股份有限公司 数据处理方法、装置及系统、电子设备
CN113779875A (zh) * 2021-08-31 2021-12-10 润联软件系统(深圳)有限公司 基于图神经模型的风力发电量预测方法及其相关设备

Also Published As

Publication number Publication date
US20220004908A1 (en) 2022-01-06
JP7097541B2 (ja) 2022-07-08
JPWO2020105468A1 (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
WO2020105468A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体
EP3716160A1 (en) Learning parameters of a probabilistic model comprising gaussian processes
US20210232957A1 (en) Relationship analysis device, relationship analysis method, and recording medium
CN113534679A (zh) 系统监测模型生成方法、处理器芯片以及工业系统
JP6853955B2 (ja) 人流パターン推定システム、人流パターン推定方法および人流パターン推定プログラム
US20210224664A1 (en) Relationship analysis device, relationship analysis method, and recording medium
Deveney et al. A deep surrogate approach to efficient Bayesian inversion in PDE and integral equation models
JPWO2019069865A1 (ja) パラメータ推定システム、パラメータ推定方法およびパラメータ推定プログラム
Ferrie et al. Likelihood-free methods for quantum parameter estimation
Sadia et al. Bayesian change-point modeling with segmented ARMA model
JP6919856B2 (ja) 強化学習プログラム、強化学習方法、および強化学習装置
JP2020086778A (ja) 機械学習モデル構築装置および機械学習モデル構築方法
WO2020071430A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体
CN114692529A (zh) 一种cfd高维响应的不确定度量化方法、装置、计算机设备
Kocijan et al. System identification with GP models
Al-Behadili et al. Semi-supervised learning using incremental support vector machine and extreme value theory in gesture data
Seleznev et al. Simulation of complex systems using the observed data based on recurrent artificial neural networks
Gralla et al. Inverting prediction models in micro production for process design
JP6740193B2 (ja) パラメータ推定装置、パラメータ推定方法及びパラメータ推定プログラム
JP5713877B2 (ja) 入出力モデル推定装置、方法、及びプログラム
Warner et al. A computationally-efficient inverse approach to probabilistic strain-based damage diagnosis
Sadr et al. Improving the neural network method for finite element model updating using homogenous distribution of design points
JP7444426B2 (ja) 状態推定評価装置、方法、及び、プログラム
Surjanovic et al. Adaptive partitioning design and analysis for emulation of a complex computer code
JP6837953B2 (ja) パラメータ推定装置、パラメータ推定方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19886749

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020558269

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19886749

Country of ref document: EP

Kind code of ref document: A1