WO2013187295A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2013187295A1
WO2013187295A1 PCT/JP2013/065617 JP2013065617W WO2013187295A1 WO 2013187295 A1 WO2013187295 A1 WO 2013187295A1 JP 2013065617 W JP2013065617 W JP 2013065617W WO 2013187295 A1 WO2013187295 A1 WO 2013187295A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
series data
explanatory
unit
power consumption
Prior art date
Application number
PCT/JP2013/065617
Other languages
English (en)
French (fr)
Inventor
有祐 渡邉
伊藤 真人
正紘 田森
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US14/398,586 priority Critical patent/US20150112891A1/en
Priority to JP2014521283A priority patent/JPWO2013187295A1/ja
Priority to CN201380029697.9A priority patent/CN104364805A/zh
Publication of WO2013187295A1 publication Critical patent/WO2013187295A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Definitions

  • the present technology relates to an information processing device, an information processing method, and a program, and more particularly, to an information processing device, an information processing method, and a program that can efficiently and accurately estimate the value of an objective variable.
  • the present technology has been made in view of such a situation, and taking the history of the operation status up to the present into consideration, the acquired data is automatically selected, and the value of the objective variable is efficiently and accurately determined. It makes it possible to estimate.
  • An information processing apparatus includes objective time-series data that is time-series data corresponding to an objective variable to be estimated, and a plurality of time-series data corresponding to a plurality of explanatory variables that explain the objective variable
  • An acquisition unit that acquires explanation time-series data, a learning unit that learns parameters of a probability model, using the acquired target time-series data and the plurality of explanation time-series data, and the obtained by learning
  • a selection unit that selects the explanatory variable corresponding to the explanatory time-series data acquired by the acquisition unit based on a parameter of the probability model, and a plurality of the acquisition units acquired by the acquisition unit based on a selection result of the selection unit
  • An estimation unit that estimates the value of the objective variable using the explanatory time-series data.
  • the information processing apparatus includes target time-series data that is time-series data corresponding to an objective variable to be estimated, and time series corresponding to a plurality of explanatory variables that explain the objective variable.
  • a program includes a computer that includes time series data that is time series data corresponding to an objective variable to be estimated, and a plurality of time series data that corresponds to a plurality of explanatory variables that explain the objective variable.
  • target time-series data that is time-series data corresponding to an objective variable to be estimated
  • a plurality of explanatory time-series that are time-series data corresponding to a plurality of explanatory variables describing the objective variable Data is acquired, and using the acquired target time-series data and the plurality of explanatory time-series data, parameters of the probability model are learned, and acquired based on the parameters of the probability model obtained by learning
  • the explanatory variable corresponding to the explanatory time series data is selected, and the value of the objective variable is estimated using a plurality of the explanatory time series data acquired based on the selection result.
  • program can be provided by being transmitted through a transmission medium or by being recorded on a recording medium.
  • the information processing apparatus may be an independent apparatus or an internal block constituting one apparatus.
  • the value of the objective variable can be estimated efficiently and with high accuracy.
  • FIG. 18 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present technology is applied.
  • the information processing apparatus 1 shown in FIG. 2 to be described later acquires time-series data indicating the operating state of a predetermined part inside the device (electronic device).
  • the acquired time-series data includes, for example, a CPU usage rate, a memory (RAM) access rate, a removable medium write / read count, and the like, as shown in FIG.
  • the information processing apparatus 1 also acquires time-series data on the power consumption of the device when acquiring time-series data indicating the operating state.
  • the information processing apparatus 1 learns in advance a relationship between a plurality of types of operating states and power consumption using a predetermined learning model.
  • the learning model learned by the information processing apparatus 1 is also referred to as a power consumption variation model.
  • the information processing apparatus 1 determines the power consumption variation model (or its parameters) by learning, the information processing apparatus 1 uses only the learned power consumption variation model to only input time-series data indicating a plurality of types of operating states that are newly input. Based on this, it is possible to estimate the power consumption of the current device. And the information processing apparatus 1 displays the present power consumption which is an estimation result on a display in real time, for example.
  • the processing of the information processing apparatus 1 is roughly divided into two processes. One is a learning process that learns the relationship between multiple types of operating states and power consumption using a predetermined learning model. The other is a learning process that uses the learning model obtained by the learning process to This is power consumption estimation processing for estimating power.
  • the device is, for example, a portable terminal such as a smartphone or a tablet terminal, or a stationary personal computer.
  • the device may be a television receiver, a content recording / playback apparatus, or the like.
  • the information processing device 1 may be included in a device as a part of a target device for estimating power consumption, or may be configured by a device different from the target device for estimation and connected to the device and executed. But you can. Further, the information processing apparatus 1 can be configured as an information processing system including a plurality of apparatuses.
  • FIG. 2 is a block diagram illustrating a functional configuration of the information processing apparatus 1.
  • the information processing apparatus 1 includes a power consumption measuring unit 11, a power consumption time series input unit 12, a log acquisition unit 13, a device control unit 14, a log time series input unit 15, a time series history storage unit 16, a model learning unit 17, and a consumption
  • the power estimation unit 18 and the estimated power consumption display unit 19 are configured.
  • the power consumption measuring unit 11 includes, for example, a power meter (clamp meter), a tester, an oscilloscope, and the like, connected to the power line of the device, measures the power consumption of the device at each time, and the measurement result is a power consumption time series. Output to the input unit 12.
  • the power consumption time series input unit 12 accumulates the power consumption value at each time supplied from the power consumption measurement unit 11 for a predetermined time, and generates time series data of the power consumption value.
  • the generated time series data of power consumption values (hereinafter also referred to as power consumption time series data) is data in which a set of time and power consumption values at the time of acquisition is collected for a predetermined period.
  • the log acquisition unit 13 acquires data indicating the operating state of a predetermined component inside the device as log information.
  • the log acquisition unit 13 acquires a plurality of types of log information at the same time, and outputs them to the log time series input unit 15.
  • the types of log information acquired by the log acquisition unit 13 include, for example, CPU usage rate, GPU usage rate, Wifi communication amount, mobile communication line communication amount (3G communication amount), display brightness, and each application being activated. For example, the list and CPU usage ratio versus data, but not limited to these.
  • the device control unit 14 controls the devices that create various states in order to learn the power consumption in various actually assumed states as the power consumption variation model.
  • the device control unit 14 may start a plurality of types of applications, such as games and spreadsheet software, to execute processes, execute and stop data communication, etc. Causes the device to execute.
  • the log time series input unit 15 accumulates log information indicating the operating state at each time supplied from the log acquisition unit 13 for a predetermined time, and the log time series data obtained as a result is stored as a time series history storage unit. 16 is output.
  • the log time series input unit 15 accumulates log information of each time supplied from the log acquisition unit 13 for a predetermined time, and the log time series data obtained as a result is stored in the power consumption estimation unit 18. Output to.
  • the type of log information is, for example, a list of each active application and CPU usage ratio
  • the list of each active application is sent from the device control unit 14 to the log time series input unit 15.
  • the CPU usage ratio is supplied from the log acquisition unit 13 to the log time series input unit 15.
  • the log time series input unit 15 executes data processing such as processing for removing abnormal values as necessary.
  • data processing such as processing for removing abnormal values as necessary.
  • the process proposed in “On-line” outlier ”detection” and ”data” cleaning ”, Computers and Chemical Engineering 28 (2004), 1635-1647, by Liu et al may be adopted. it can.
  • the time series history storage unit 16 stores (stores) the power consumption time series data supplied from the power consumption time series input unit 12 and the log time series data supplied from the log time series input unit 15.
  • the power consumption time series data and the log time series data stored in the time series history storage unit 16 are used when the model learning unit 17 learns (updates) the power consumption variation model.
  • the model learning unit 17 includes a model parameter update unit 21, a model parameter storage unit 22, and a log selection unit 23.
  • the model parameter updating unit 21 learns the power consumption variation model using the power consumption time-series data and the log time-series data stored in the time-series history storage unit 16, and obtains the parameters of the power consumption variation model obtained as a result. And stored in the model parameter storage unit 22.
  • the parameters of the power consumption variation model are also simply referred to as model parameters.
  • the model parameter update unit 21 stores the new time-series data in the model parameter storage unit 22 using the new time-series data. Update the parameters of the power consumption fluctuation model.
  • the model parameter update unit 21 includes a hidden Markov model (HMM: Hidden Markov Model) that represents the operating state of the device as a hidden state S and a related vector machine (RVM: Relevance Vector Machine) as a probability model that represents a power consumption variation model.
  • HMM Hidden Markov Model
  • RVM Relevance Vector Machine
  • the model parameter storage unit 22 stores the parameter of the power consumption variation model updated (learned) by the model parameter update unit 21.
  • the parameters of the power consumption variation model stored in the model parameter storage unit 22 are supplied to the power consumption estimation unit 18.
  • the log selection unit 23 selects and controls unnecessary log information (types) among a plurality of types of log information acquired by the log acquisition unit 13. More specifically, the log selection unit 23 determines unnecessary log information based on the parameter (value) of the power consumption variation model stored in the model parameter storage unit 22. And the log selection part 23 controls the log acquisition part 13 not to acquire the log information determined to be unnecessary based on the determination result.
  • the power consumption estimation unit 18 acquires the parameters of the power consumption variation model obtained by the learning process from the model parameter storage unit 22. Then, in the power consumption estimation process, the power consumption estimation unit 18 inputs log time series data supplied from the log time series input unit 15 from the current time to a certain time before to the learned power consumption fluctuation model, Estimate the power consumption value at the current time. The estimated power consumption value is supplied to the estimated power consumption display unit 19.
  • the estimated power consumption display unit 19 displays the power consumption value at the current time supplied from the power consumption estimation unit 18 by a predetermined method.
  • the estimated power consumption display unit 19 digitally displays the power consumption value at the current time, or graphs and displays the transition of the power consumption value from a certain time before to the current time.
  • the information processing apparatus 1 is configured as described above.
  • step S1 the power consumption measuring unit 11 starts measuring the power consumption of the device. After the process of step S1, power consumption is measured at regular time intervals, and the measurement results are sequentially output to the power consumption time-series input unit 12.
  • step S2 the device control unit 14 activates and executes a plurality of types of applications.
  • step S3 the log acquisition unit 13 starts acquiring a plurality of types of log information. After the processing in step S3, a plurality of types of log information are acquired at regular time intervals and sequentially output to the log time series input unit 15.
  • steps S1 to S3 can be executed in an arbitrary order. Moreover, you may perform simultaneously each process of step S1 thru
  • step S4 the power consumption time-series input unit 12 accumulates the power consumption value at each time supplied from the power consumption measurement unit 11 for a predetermined time, and generates power consumption time-series data.
  • the power consumption time series input unit 12 supplies the generated power consumption time series data to the time series history storage unit 16.
  • step S5 the log time series input unit 15 accumulates the log information of each time supplied from the log acquisition unit 13 for a predetermined time to generate log time series data.
  • the log time series input unit 15 supplies the generated log time series data to the time series history storage unit 16.
  • step S6 the time series history storage unit 16 stores the power consumption time series data supplied from the power consumption time series input unit 12 and the log time series data supplied from the log time series input unit 15.
  • learning data (a set of power consumption time-series data and log time-series data) under a predetermined operating condition controlled by the device control unit 14 in step S2 is obtained.
  • the time series history storage unit 16 stores the data.
  • the information processing apparatus 1 accumulates learning data in various assumed operating states by changing the operating conditions in various ways and repeating the above-described data collection processing a predetermined number of times. In other words, the information processing apparatus 1 changes the processing in step S2 in various ways and repeats the processing in steps S1 to S6 a predetermined number of times, so that learning data in various assumed operating states can be stored in a time-series history. Save in the storage unit 16.
  • model parameter learning process that is a part of the learning process of the information processing apparatus 1 and obtains a model parameter using the learning data collected by the data collection process will be described with reference to the flowchart of FIG.
  • step S 21 the model parameter update unit 21 acquires the current model parameter from the model parameter storage unit 22.
  • the model parameter update unit 21 learns a power consumption variation model for the first time, the model parameter update unit 21 stores initial values of model parameters.
  • step S22 the model parameter update unit 21 acquires the power consumption time series data and the log time series data stored in the time series history storage unit 16.
  • step S23 the model parameter update unit 21 uses the current model parameter acquired from the model parameter storage unit 22 as an initial value, and sets the new power consumption time-series data and log time-series data acquired from the time-series history storage unit 16. Use to update the model parameters.
  • step S24 the model parameter update unit 21 supplies the updated model parameters to the model parameter storage unit 22 for storage.
  • the model parameter storage unit 22 stores the updated model parameter supplied from the model parameter update unit 21 by overwriting the current model parameter.
  • step S25 the log selection unit 23 determines unnecessary log information based on the updated model parameters stored in the model parameter storage unit 22. And the log selection part 23 controls the log acquisition part 13 not to acquire the log information determined to be unnecessary based on the determination result.
  • the selection control of the log selection unit 23 is reflected from the time when the log acquisition unit 13 next executes the log information acquisition processing (step S3 processing).
  • the learning (updating) of the model parameters using the new power consumption time-series data and log time-series data stored in the time-series history storage unit 16 is executed.
  • step S ⁇ b> 41 the power consumption estimation unit 18 acquires the model parameters obtained by the learning process from the model parameter storage unit 22.
  • step S42 the log acquisition unit 13 acquires a plurality of types of log information at the current time, and outputs them to the log time series input unit 15. In the process of step S42, only the type of log information selected and controlled by the log selection unit 23 is acquired.
  • step S43 the log time series input unit 15 temporarily stores the log information of the current time supplied from the log acquisition unit 13, and the log time series data from the current time to a certain time before the power consumption estimation unit 18 To supply.
  • the log time series input unit 15 By supplying log information of the current time from the log acquisition unit 13, old log information that is no longer required to be saved is deleted.
  • step S44 the power consumption estimation unit 18 executes a power consumption estimation process using the learned power consumption fluctuation model. That is, the power consumption estimation unit 18 inputs the log time series data from the log time series input unit 15 to the power consumption fluctuation model, and estimates (calculates) the power consumption value at the current time. The estimated power consumption value is supplied to the estimated power consumption display unit 19.
  • step S45 the estimated power consumption display unit 19 displays the power consumption value (estimated value) of the current time supplied from the power consumption estimation unit 18 by a predetermined method, and ends the process.
  • steps S41 to S45 described above are executed each time new log information is acquired by the log acquisition unit 13, for example.
  • HMM + RVM employed as a learning model for learning fluctuations in power consumption of devices in the present embodiment.
  • FIG. 6 shows a graphical model of the HMM.
  • the simultaneous probability of the hidden variable S t and the observation data X t , Y t is given by the following equation (1).
  • Y t is a measured value y t of power consumption at time t of the power consumption measuring unit 11 and is one-dimensional data.
  • Xt is a plurality of types (Dx) of pieces of log information x t 1 , x t 2 ,..., X t Dx at the time t acquired by the log acquisition unit 13 and represents a Dx-dimensional vector.
  • P (S 1 ) is the initial probability
  • S t-1 ) is the state transition probability from the hidden state S t -1 to the hidden state St
  • S t ) represent observation probabilities.
  • S t ) are calculated by the following expressions (2) and (3), respectively.
  • the [rho St Equation (2) represents the average value of the power consumption in the hiding state S t (output Y)
  • beta denotes the Gaussian noise magnitude according to the output Y (dispersion).
  • the mu St Equation (3) represents the average value of the log information in a hidden state S t (input X), the sigma St, representing the variance of the input X. T represents transposition.
  • the HMM + RVM probability model employed as the power consumption variation model in the present embodiment is expressed by the following equation (4).
  • W St of formula (4) represents the linear regression coefficients of the input X and output Y of the hidden state S t
  • P (w S) denotes the prior probability distribution of the linear regression coefficient w S.
  • the prior probability distribution P (w S ) of the linear regression coefficient w S is assumed to be a Gaussian distribution with mean ⁇ 0 and variance ⁇ ⁇ 1 (inverse matrix of ⁇ ) as shown in Equation (5).
  • the average ⁇ 0 is set to 0, and the variance ⁇ ⁇ 1 is a diagonal matrix.
  • S t , w St ) of the equation (4) is equal to the observation probability P (Y t
  • Equation (7) the output Y t is meant to be expressed by a linear regression model of the X t using linear regression coefficient w St hidden state S t, equation (8), the input X t is , Mean ⁇ St , and variance ⁇ St are expressed by a Gaussian distribution.
  • the hidden state S t such as HMM, hidden rather than representing a state
  • the relation (probabilistic relationships) of the power consumption value (output Y t) and log information (input X t) of the device It can be said that this is a variable (hidden variable) of a linear regression model representing The output Y t is an objective variable of the linear regression model, and a plurality of types of log information as the input X t correspond to explanatory variables of the linear regression model.
  • the model parameter update unit 21 uses these parameters ⁇ w, ⁇ 0 , ⁇ , ⁇ , ⁇ , ⁇ , P (S
  • the model parameter is updated in the same manner as the EM algorithm, which is an iterative algorithm used in the HMM.
  • the model parameter updating unit 21 sets initial values of model parameters.
  • the initial value of the model parameter is set by a predetermined method such as a value determined using a random number.
  • step S62 the model parameter update unit 21 updates the linear regression coefficient w S associated with each hidden state S.
  • the linear regression coefficient w S is estimated and updated by distribution, not point estimation. That is, if the distribution of the linear regression coefficient w S accompanying the each hidden state S to a Gaussian distribution q (w S), Gaussian q of the linear regression coefficient w S (w S) is calculated by the following equation (9) The Here, ⁇ •> q (S) represents an expected value for the hidden state S. P of the formula (9) (X, Y, S
  • step S63 the model parameter update unit 21 updates the magnitude ⁇ of the Gaussian noise of the output Y by the following equation (13).
  • step S64 the model parameter update unit 21 uses the following equation (14) to determine the transition probability P (S
  • q t (S ′, S) represents the probability of existing in hidden states S ′ and S at times t and t + 1, respectively.
  • step S65 the model parameter update unit 21 updates the initial probability distribution P (S1), the average ⁇ S of the input X of the hidden state S, and the variance ⁇ S by the following equations (15) to (17).
  • step S66 the model parameter update unit 21 calculates the probability q (S) of the hidden state S expressed by the following equation (18).
  • the model parameter update unit 21 calculates the probability q t (S) in the state S at time t in the following procedure.
  • the model parameter updating unit 21 the forward likelihood of the state S t alpha (S t) and the backward likelihood ⁇ a (S t), calculated by the following equation (19) and (20).
  • S t ) is Calculated by
  • the model parameter updating unit 21 calculates the probability q t (S, S ′) existing in the hidden states S and S ′, respectively, at times t and t + 1, using the following equation (22). Then, using the obtained probability q t (S, S ′), the model parameter updating unit 21 calculates the probability q t (S) in the state S at time t by Expression (23).
  • step S67 the model parameter updating unit 21 updates the parameters of the prior probability distribution P (w S ) of the linear regression coefficient w S , that is, the average ⁇ 0 and the variance ⁇ ⁇ 1 .
  • N (w S ; ⁇ 0 , ⁇ ⁇ 1 ) represents that the random variable w S follows a normal distribution with mean ⁇ 0 and variance ⁇ ⁇ 1
  • N (w S ; ⁇ 0 , ⁇ -1 )) represents the Cullback library divergence of q (w S ) and N (w S ; ⁇ 0 , ⁇ -1 ).
  • Argmin is a variable ( ⁇ 0 and variance ⁇ that minimizes the sum ( ⁇ ) of KL (q (w S )
  • the mean ⁇ 0 and the variance ⁇ ⁇ 1 of the prior probability distribution P (w S ) can be calculated by the following equations.
  • step S68 the model parameter updating unit 21 determines whether the model parameter convergence condition is satisfied. For example, when the number of repetitions of the processes in steps S62 to S68 reaches a predetermined number set in advance, or when the amount of change in state likelihood due to model parameter update is within a predetermined value, the model parameter update unit 21 Then, it is determined that the convergence condition of the model parameter is satisfied.
  • step S68 If it is determined in step S68 that the model parameter convergence condition is not yet satisfied, the process returns to step S62, and the processes of steps S62 to S68 are repeated.
  • step S68 if it is determined in step S68 that the model parameter convergence condition is satisfied, the model parameter update unit 21 ends the model parameter update process.
  • the calculation order of the model parameters to be updated is not necessarily performed in the order of steps S62 to S67 described above, and can be performed in any order.
  • the model parameters are updated, calculated in step S67, the out of variance alpha -1 prior probability distribution P of the linear regression coefficient w S (w S), a number of alpha -1 k becomes infinite. If the variance ⁇ ⁇ 1 k is infinite, since the average ⁇ 0, k is set to 0, the k-th component of all linear regression coefficients w S is forced to be 0. This means that the importance of the k-th component of the input X is low, which means that it is not necessary to use the input X of the k-th component.
  • the k-th component of the linear regression coefficient w S is set to a predetermined threshold (for example, 0.01). Etc.) is selected by the log selection unit 23. Then, the log information corresponding to the component of the linear regression coefficient w S smaller than the predetermined threshold is determined as unnecessary log information, and the log selection unit 23 does not use the log information determined as unnecessary after the next time.
  • the log acquisition unit 13 is selected and controlled.
  • the current model parameter stored in the model parameter storage unit 22 can be used as the initial value of the model parameter.
  • Equation (27) time-series data acquired log ⁇ X d 1, X d 2 , X d 3, ⁇ , X d t, ⁇ , X d T ⁇ the likelihood is observed, most processes of the state transitions to the large time t in (maximum likelihood state sequence) hidden state S t and requests as S * t.
  • the maximum likelihood state sequence can be obtained using the Viterbi algorithm.
  • the power consumption estimation unit 18 obtains (estimates) an estimated value Y * t of power consumption according to the following equation (29) after obtaining the hidden state S * t that satisfies equation (27). Therefore, the estimated value Y * t of the power consumption is obtained from the inner product of the average ⁇ St of the linear regression coefficient w S of the hidden state S * t and the input X t .
  • step S44 of FIG. 5 the power consumption estimation unit 18 estimates the power consumption value Y * t at the current time as described above.
  • HMM + RVM [Modification to HMM]
  • the HMM + RVM algorithm described so far can be said to be an RMM applied to an HMM. Therefore, if the above-mentioned HMM + RVM model parameters are set to a predetermined condition, it becomes a normal HMM. Therefore, a case where estimation is performed by applying a normal HMM as a power consumption variation model will be described below.
  • the HMM + RVM input X to which the new component is added to the (Dx + 1) dimension of the log time-series data X taken as the input X is considered as the input X ⁇ of the HMM. That is, the inputs X to t at time t of the HMM are And
  • the variance ⁇ -1 (inverse matrix of ⁇ ) of the prior probability distribution P (w S ) of the linear regression coefficient w S , the (Dx + 1) component as infinity, and the other components as Set to 0.
  • the parameter of the prior probability distribution P (w S ) of the linear regression coefficient w S is fixed.
  • the HMM + RVM probability model expressed by the above-described equation (4) can be expressed as the following equation (32).
  • equation (32) becomes a normal HMM probability model shown as equation (1).
  • S t ) in Expression (2) corresponds to the (Dx + 1) -th component of the linear regression coefficient w S.
  • the log selection unit 23 cannot select and control the type of unnecessary log information.
  • the information processing apparatus 1 can select (automatically) only log information necessary for power estimation. Thereby, it is not necessary for a person to determine the type of acquired data to be used for estimating the power consumption, and to reduce the burden on the person.
  • unnecessary log information does not have to be acquired in the subsequent data collection process, model parameter learning process, and power consumption estimation process.
  • the calculation amount can be reduced and the processing time can be shortened. That is, according to the probabilistic model using HMM + RVM of the present technology, it is possible to estimate efficiently using only log information useful for estimation.
  • Expression (35) is an expression of the probability distribution q (S) of the hidden state S when the learning model is an HMM.
  • ⁇ x is a weighting factor for observed log time-series data
  • ⁇ y is a weighting factor for power consumption time-series data.
  • Expression (35) by setting the weighting factor ⁇ y of the power consumption time-series data to be larger than the weighting factor ⁇ x of the log time-series data, learning focusing on the power consumption time-series data can be performed.
  • the log data obtained at the time t is used as it is for the observation data X t at the time t.
  • the log information after the log data has been processed The value can be handled as observation data X t at time t.
  • Bt pieces of log information from time t to time t ⁇ t before ⁇ t time may be used as the observation data X t at time t.
  • the observed data X t is constituted by a vector of Dx line Bt column.
  • the learning model of this embodiment employs a learning model based on HMM.
  • HMM a learning model based on HMM.
  • the CPU temperature may increase or the fan may rotate, thereby increasing power consumption.
  • the learning model of the present embodiment it is possible to output an estimation result learned as a history that the CPU is in a high load state for a certain period.
  • the present technology can be applied to posture estimation processing for estimating the posture of an object such as a robot.
  • time-series sensor data obtained from a plurality of acceleration sensors attached to an object such as a robot and position time-series data that is time-series data of positions indicating the posture of the object are respectively input X and Output Y.
  • the current posture of the object can be estimated using time-series sensor data.
  • the log selection unit 23 can exclude unnecessary sensor data of the acceleration sensor. It is difficult to determine the posture of the current object in the line format using only sensor data at the current time, but use the accumulation (integration) of acceleration values using time-series data of sensor data. Thus, it is possible to estimate how the posture of the object has changed.
  • time-series data of video content feature amounts for example, volume, image feature amount, etc.
  • human-feeling “noisy” time-series data are set as input X and output Y in the learning process, respectively.
  • “Perceived loudness” is different from simple volume because it depends on the type of sound and the context before and after.
  • the index of “noisiness” depends on the context of the video content (the content of the previous video and its sound). For example, in a lively scene, even if the volume changes from “3” to “4”, a person does not feel noisy, but if the volume suddenly becomes “4” in a quiet scene of volume “1”, A person may feel noisy. Therefore, it is difficult to accurately estimate the “noisiness” with only the feature value at the current time. By using the time series data of the feature value of the video content as the input X, the “noisiness” felt by the person can be accurately obtained. It is possible to estimate.
  • the log selection unit 23 determines an unnecessary feature amount from the feature amount of the acquired video content and does not use it. Can be controlled.
  • the present technology can be applied to, for example, processing for estimating the viewing time of the user's television of the day from operation time-series data indicating the operation status of the user's smartphone.
  • the time index t is a date (daily unit)
  • the operation time series data indicating the operation status of the user's smartphone and the time series data of the user's television viewing time are input X and output in the learning process, respectively.
  • Y the estimation process, it is possible to estimate the viewing time of the television of the day using the operation time-series data indicating the operation status of the Martphone on a certain day.
  • the estimated items include, for example, “time spent in a car” and “time when logged in to SNS (Social Networking Service) such as Facebook (registered trademark)” in addition to “TV viewing time”.
  • the series of processes described above can be executed by hardware or software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 8 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 105 is further connected to the bus 104.
  • An input unit 106, an output unit 107, a storage unit 108, a communication unit 109, and a drive 110 are connected to the input / output interface 105.
  • the input unit 106 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 107 includes a display, a speaker, and the like.
  • the storage unit 108 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 109 includes a network interface or the like.
  • the drive 110 drives a removable recording medium 111 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 101 loads, for example, the program stored in the storage unit 108 to the RAM 103 via the input / output interface 105 and the bus 104 and executes the program. Is performed.
  • the program can be installed in the storage unit 108 via the input / output interface 105 by attaching the removable recording medium 111 to the drive 110. Further, the program can be received by the communication unit 109 and installed in the storage unit 108 via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In addition, the program can be installed in the ROM 102 or the storage unit 108 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this technique can also take the following structures.
  • An acquisition unit that acquires target time-series data that is time-series data corresponding to an objective variable to be estimated, and a plurality of explanatory time-series data that is time-series data corresponding to a plurality of explanatory variables that describe the objective variable;
  • a learning unit that learns parameters of a probability model using the acquired target time-series data and the plurality of explanation time-series data
  • a selection unit that selects the explanatory variable corresponding to the explanatory time-series data acquired by the acquisition unit, based on the parameters of the probability model obtained by learning;
  • An information processing apparatus comprising: an estimation unit that estimates a value of the objective variable using the plurality of explanation time-series data acquired by the acquisition unit based on a selection result of the selection unit.
  • Information processing device Obtaining objective time series data that is time series data corresponding to the objective variable to be estimated, and a plurality of explanatory time series data that is time series data corresponding to a plurality of explanatory variables describing the objective variable; Using the acquired target time series data and the plurality of explanatory time series data, learn the parameters of the probability model, Based on the parameters of the probability model obtained by learning, select the explanatory variable corresponding to the explanatory time-series data to be acquired, An information processing method including a step of estimating a value of the objective variable using a plurality of the explanation time-series data acquired based on a selection result.
  • An acquisition unit that acquires target time-series data that is time-series data corresponding to an objective variable to be estimated, and a plurality of explanatory time-series data that is time-series data corresponding to a plurality of explanatory variables that describe the objective variable;
  • a learning unit that learns parameters of a probability model using the acquired target time-series data and the plurality of explanation time-series data;
  • a selection unit that selects the explanatory variable corresponding to the explanatory time-series data acquired by the acquisition unit, based on the parameters of the probability model obtained by learning;
  • the program for functioning as an estimation part which estimates the value of the objective variable using the said some description time series data which the said acquisition part acquired based on the selection result of the said selection part.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Medical Informatics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pure & Applied Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Computational Linguistics (AREA)
  • Debugging And Monitoring (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Power Sources (AREA)

Abstract

 本技術は、効率良く、高精度に目的変数の値を推定することができるようにする情報処理装置、情報処理方法、およびプログラムに関する。 ログ取得部は、推定対象の目的変数に対応する目的時系列データと、目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得する。モデルパラメータ更新部は、取得された目的時系列データと複数の説明時系列データとを用いて、確率モデルのパラメータを学習する。ログ選択部は、学習により得られた確率モデルのパラメータに基づいて、ログ取得部が取得する説明時系列データに対応する説明変数を選択する。推定部は、選択部の選択結果に基づいてログ取得部が取得した複数の説明時系列データを用いて、目的変数の値を推定する。本技術は、例えば、機器の消費電力を推定する情報処理装置に適用できる。

Description

情報処理装置、情報処理方法、およびプログラム
 本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、効率良く、高精度に目的変数の値を推定することができるようにする情報処理装置、情報処理方法、およびプログラムに関する。
 電子機器の部品であるCPUの負荷率等を説明変数として、複数の説明変数と、その電力係数とからなる線形式で電子機器の消費電力をモデル化し、部品の稼働状態に基づいて、電子機器の消費電力を推定する技術が提案されている(例えば、特許文献1参照)。
特開2010-22533号公報
 しかしながら、特許文献1の技術では、時刻tの消費電力を推定する場合、時刻tにおける部品の稼働状態(を示す値)のみが用いられる。したがって、特許文献1の技術では、時刻tに至るまでの稼働状況の履歴を考慮した消費電力の推定ができなかった。
 また、特許文献1の技術では、多重共線性の問題が起こることを回避するために、消費電力の推定に使用する取得データ(説明変数に対応するデータ)の種類を、人が判断し、取捨選択する必要があった。
 本技術は、このような状況に鑑みてなされたものであり、現在までの稼働状況の履歴を考慮しつつ、取得データを自動で取捨選択して、効率良く、高精度に目的変数の値を推定することができるようにするものである。
 本技術の一側面の情報処理装置は、推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得する取得部と、取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータを学習する学習部と、学習により得られた前記確率モデルのパラメータに基づいて、前記取得部が取得する前記説明時系列データに対応する前記説明変数を選択する選択部と、前記選択部の選択結果に基づいて前記取得部が取得した複数の前記説明時系列データを用いて、前記目的変数の値を推定する推定部とを備える。
 本技術の一側面の情報処理方法は、情報処理装置が、推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得し、取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータを学習し、学習により得られた前記確率モデルのパラメータに基づいて、取得する前記説明時系列データに対応する前記説明変数を選択し、選択結果に基づいて取得した複数の前記説明時系列データを用いて、前記目的変数の値を推定するステップを含む。
 本技術の一側面のプログラムは、コンピュータを、推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得する取得部と、取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータを学習する学習部と、学習により得られた前記確率モデルのパラメータに基づいて、前記取得部が取得する前記説明時系列データに対応する前記説明変数を選択する選択部と、前記選択部の選択結果に基づいて前記取得部が取得した複数の前記説明時系列データを用いて、前記目的変数の値を推定する推定部として機能させるためのものである。
 本技術の一側面においては、推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとが取得され、取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータが学習され、学習により得られた前記確率モデルのパラメータに基づいて、取得する前記説明時系列データに対応する前記説明変数が選択され、その選択結果に基づいて取得された複数の前記説明時系列データを用いて、前記目的変数の値が推定される。
 なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
 情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
 本技術の一側面によれば、効率良く、高精度に目的変数の値を推定することができる。
機器消費電力推定処理の概要について説明する図である。 本技術が適用された情報処理装置の一実施の形態の構成例を示すブロック図である。 データ収集処理を説明するフローチャートである。 モデルパラメータ学習処理を説明するフローチャートである。 消費電力推定処理を説明するフローチャートである。 HMMのグラフィカルモデルを示す図である。 モデルパラメータ更新処理を説明するフローチャートである。 本技術が適用されたコンピュータの一実施の形態の構成例を示すブロック図である。
[情報処理装置の処理概要]
 初めに、図1を参照して、本技術が適用された情報処理装置で実現される機器消費電力推定処理の概要について説明する。
 後述する図2に示される情報処理装置1は、機器(電子機器)内部の所定の部品の稼働状態を示す時系列データを取得する。ここで、取得される時系列データは、例えば、図1に示すように、CPUの使用率、メモリ(RAM)のアクセスレート(acess rate)、リムーバブルメディアの書き込み/読み出し回数、などである。また、情報処理装置1は、稼働状態を示す時系列データを取得したときの機器の消費電力の時系列データも同時に取得する。
 そして、情報処理装置1は、複数種類の稼働状態と消費電力との関係を所定の学習モデルで予め学習する。情報処理装置1により学習された学習モデルを、以下では、消費電力変動モデルともいう。
 情報処理装置1は、消費電力変動モデル(のパラメータ)を学習により決定した後は、学習された消費電力変動モデルを用いて、新たに入力された複数種類の稼働状態を示す時系列データのみに基づいて、現時点の機器の消費電力を推定することが可能となる。そして、情報処理装置1は、例えば、推定結果である現在の消費電力をディスプレイにリアルタイムに表示する。
 情報処理装置1の処理は、大きく二つの処理に分かれる。一つは、複数種類の稼働状態と消費電力との関係を所定の学習モデルで学習する学習処理であり、もう一つは、学習処理により得られた学習モデルを用いて、機器の現在の消費電力を推定する消費電力推定処理である。
 機器(電子機器)は、例えば、スマートフォン、タブレット端末、などの携帯型の端末や、据え置き型のパーソナルコンピュータなどである。また、機器は、テレビジョン受像機、コンテンツ記録再生装置などでもよい。情報処理装置1は、消費電力を推定する対象の機器の一部として、その機器に含まれていてもよいし、推定対象の機器と異なる装置で構成され、機器と接続されて実行されるものでもよい。また、情報処理装置1は、複数の装置で構成される情報処理システムとして構成することもできる。
[情報処理装置の機能ブロック図]
 図2は、情報処理装置1の機能的構成を示すブロック図である。
 情報処理装置1は、消費電力計測部11、消費電力時系列入力部12、ログ取得部13、機器制御部14、ログ時系列入力部15、時系列履歴保存部16、モデル学習部17、消費電力推定部18、および推定消費電力表示部19により構成される。
 消費電力計測部11は、例えば、電力計(クランプメータ)、テスタ、オシロスコープなどで構成され、機器の電源ラインに接続し、各時刻における機器の消費電力を計測し、計測結果を消費電力時系列入力部12に出力する。
 消費電力時系列入力部12は、消費電力計測部11から供給される各時刻の消費電力値を所定時間蓄積し、消費電力値の時系列データを生成する。生成される消費電力値の時系列データ(以下、消費電力時系列データともいう。)は、取得したときの時刻と消費電力値との組が、所定の期間だけ集められたデータとなる。
 ログ取得部13は、機器内部の所定部品の稼働状態を示すデータをログ情報として取得する。ログ取得部13は、複数種類のログ情報を同時に取得し、ログ時系列入力部15に出力する。ログ取得部13が取得するログ情報の種類としては、例えば、CPU使用率、GPU使用率、Wifi通信量、移動体通信回線の通信量(3G通信量)、ディスプレイ輝度、起動中の各アプリケーションのリストとCPU使用比率の対データ、などが挙げられるが、これらに限定されるわけではない。
 機器制御部14は、消費電力変動モデルの学習処理において、実際に想定される様々な状態における消費電力を消費電力変動モデルとして学習するため、様々な状態を作り出す機器の制御を行う。例えば、機器制御部14は、ゲーム、表計算処理ソフトなど、複数種類のアプリケーションを同時に起動させて処理を実行させたり、データ通信を実行および停止させたりなどして、想定される稼働状態の組み合わせを機器に実行させる。
 ログ時系列入力部15は、学習処理において、ログ取得部13から供給される各時刻の稼働状態を示すログ情報を所定時間蓄積し、その結果得られるログ時系列データを、時系列履歴保存部16に出力する。
 また、ログ時系列入力部15は、消費電力推定処理において、ログ取得部13から供給される各時刻のログ情報を所定時間蓄積し、その結果得られるログ時系列データを、消費電力推定部18に出力する。
 なお、ログ情報の種類が、例えば、起動中の各アプリケーションのリストとCPU使用比率の対データである場合には、起動中の各アプリケーションのリストが、機器制御部14からログ時系列入力部15に供給され、CPU使用比率が、ログ取得部13からログ時系列入力部15に供給される。
 ログ時系列入力部15は、異常値を除去する処理などのデータ加工を必要に応じて実行する。異常値を除去する処理としては、例えば、 “On-line outlier detection and data cleaning” ,Computers and Chemical Engineering 28 (2004) ,1635-1647, by Liu et al で提案されている処理を採用することができる。
 時系列履歴保存部16は、消費電力時系列入力部12から供給される消費電力時系列データと、ログ時系列入力部15から供給されるログ時系列データを、保存(記憶)する。時系列履歴保存部16に保存された消費電力時系列データとログ時系列データは、モデル学習部17が消費電力変動モデルを学習(更新)する際に利用される。
 モデル学習部17は、モデルパラメータ更新部21、モデルパラメータ記憶部22、およびログ選択部23により構成される。
 モデルパラメータ更新部21は、時系列履歴保存部16に保存された消費電力時系列データとログ時系列データを用いて、消費電力変動モデルを学習し、その結果得られる消費電力変動モデルのパラメータを、モデルパラメータ記憶部22に記憶させる。以下では、消費電力変動モデルのパラメータを、単に、モデルパラメータともいう。
 また、モデルパラメータ更新部21は、新たな消費電力時系列データとログ時系列データが時系列履歴保存部16に保存された場合、その新たな時系列データを用いてモデルパラメータ記憶部22に保持されている消費電力変動モデルのパラメータを更新する。
 モデルパラメータ更新部21は、消費電力変動モデルを表す確率モデルとして、機器の動作状態を隠れ状態Sとして表す隠れマルコフモデル(HMM:Hidden Markov Model)と関連ベクタマシン(RVM:Relevance Vector Machine)とを混合した確率モデルであるHMM+RVMを採用する。HMM+RVMの詳細については後述する。
 モデルパラメータ記憶部22は、モデルパラメータ更新部21により更新(学習)された消費電力変動モデルのパラメータを記憶する。モデルパラメータ記憶部22に記憶されている消費電力変動モデルのパラメータは、消費電力推定部18に供給される。
 ログ選択部23は、ログ取得部13が取得している複数種類のログ情報のうち、不要なログ情報(の種類)を選択制御する。より具体的には、ログ選択部23は、モデルパラメータ記憶部22に記憶されている消費電力変動モデルのパラメータ(の値)に基づいて、不要なログ情報を判定する。そして、ログ選択部23は、判定結果に基づいて、不要と判定されたログ情報を取得しないようにログ取得部13を制御する。
 消費電力推定部18は、学習処理により得られた消費電力変動モデルのパラメータを、モデルパラメータ記憶部22から取得する。そして、消費電力推定部18は、消費電力推定処理において、ログ時系列入力部15から供給される、現在時刻から一定時間前までのログ時系列データを、学習した消費電力変動モデルに入力し、現在時刻の消費電力値を推定する。推定結果の消費電力値は、推定消費電力表示部19に供給される。
 推定消費電力表示部19は、消費電力推定部18から供給される現在時刻の消費電力値を、所定の方法で表示する。例えば、推定消費電力表示部19は、現在時刻の消費電力値をデジタル表示したり、一定時間前から現在時刻までの消費電力値の推移をグラフ化して表示する。
 情報処理装置1は、以上のように構成されている。
[データ収集処理のフローチャート]
 図3のフローチャートを参照して、情報処理装置1の学習処理の一部であり、モデルパラメータを計算するためのデータを収集するデータ収集処理について説明する。
 初めに、ステップS1において、消費電力計測部11が、機器の消費電力の計測を開始する。ステップS1の処理後、消費電力が一定時間間隔で計測され、計測結果が、消費電力時系列入力部12に、順次、出力される。
 ステップS2において、機器制御部14が、複数種類のアプリケーションを起動し、実行させる。
 ステップS3において、ログ取得部13が、複数種類のログ情報の取得を開始する。ステップS3の処理後、複数種類のログ情報が一定時間間隔で取得され、ログ時系列入力部15に、順次、出力される。
 ステップS1乃至S3の各処理は、任意の順番で実行することができる。また、ステップS1乃至S3の各処理を同時に実行してもよい。
 ステップS4において、消費電力時系列入力部12が、消費電力計測部11から供給された各時刻の消費電力値を所定時間蓄積し、消費電力時系列データを生成する。消費電力時系列入力部12は、生成した消費電力時系列データを、時系列履歴保存部16に供給する。
 ステップS5において、ログ時系列入力部15が、ログ取得部13から供給される各時刻のログ情報を所定時間蓄積し、ログ時系列データを生成する。ログ時系列入力部15は、生成したログ時系列データを、時系列履歴保存部16に供給する。
 ステップS6において、時系列履歴保存部16は、消費電力時系列入力部12から供給された消費電力時系列データと、ログ時系列入力部15から供給されたログ時系列データを保存する。
 以上のステップS1乃至S6の処理が実行されると、ステップS2で機器制御部14が制御した所定の一つの動作条件での学習用データ(消費電力時系列データとログ時系列データの組)が、時系列履歴保存部16に保存される。
 情報処理装置1は、動作条件を異なるように様々に変更して、上述のデータ収集処理を所定回数繰り返すことで、想定される様々な稼働状態における学習用データを蓄積する。換言すれば、情報処理装置1は、ステップS2の処理を様々に変更して、ステップS1乃至S6の処理を所定回数繰り返すことで、想定される様々な稼働状態における学習用データを、時系列履歴保存部16に保存する。
[モデルパラメータ学習処理のフローチャート]
 次に、図4のフローチャートを参照して、情報処理装置1の学習処理の一部であり、データ収集処理により収集された学習用データを用いてモデルパラメータを求めるモデルパラメータ学習処理について説明する。
 初めに、ステップS21において、モデルパラメータ更新部21が、現在のモデルパラメータを、モデルパラメータ記憶部22から取得する。モデルパラメータ更新部21が、消費電力変動モデルの学習を初めて行う場合、モデルパラメータ更新部21には、モデルパラメータの初期値が記憶されている。
 ステップS22において、モデルパラメータ更新部21が、時系列履歴保存部16に保存されている消費電力時系列データとログ時系列データを取得する。
 ステップS23において、モデルパラメータ更新部21が、モデルパラメータ記憶部22から取得した現在のモデルパラメータを初期値として、時系列履歴保存部16から取得した新たな消費電力時系列データとログ時系列データを用いて、モデルパラメータを更新する。
 ステップS24において、モデルパラメータ更新部21が、更新後のモデルパラメータを、モデルパラメータ記憶部22に供給し、記憶させる。モデルパラメータ記憶部22は、モデルパラメータ更新部21から供給された更新後のモデルパラメータを、現在のモデルパラメータに上書きして記憶する。
 ステップS25において、ログ選択部23が、モデルパラメータ記憶部22に記憶されている更新後のモデルパラメータに基づいて、不要なログ情報を判定する。そして、ログ選択部23が、判定結果に基づいて、不要と判定されたログ情報を取得しないようにログ取得部13を制御する。このログ選択部23の選択制御は、ログ取得部13がログ情報の取得処理(ステップS3の処理)を次に実行するときから反映される。
 以上のようにして、時系列履歴保存部16に保存された新たな消費電力時系列データとログ時系列データを用いたモデルパラメータの学習(更新)が実行される。
[消費電力推定処理のフローチャート]
 次に、図5のフローチャートを参照して、学習したモデルパラメータを用いて、現在の稼働状態における消費電力を推定する消費電力推定処理について説明する。
 初めに、ステップS41において、消費電力推定部18が、学習処理により得られたモデルパラメータを、モデルパラメータ記憶部22から取得する。
 ステップS42において、ログ取得部13が、現在時刻における複数種類のログ情報を取得し、ログ時系列入力部15に出力する。ステップS42の処理では、ログ選択部23により選択制御されたログ情報の種類についてのみ取得される。
 ステップS43において、ログ時系列入力部15が、ログ取得部13から供給される現在時刻のログ情報を一時保存するとともに、現在時刻から一定時間前までのログ時系列データを、消費電力推定部18に供給する。現在時刻のログ情報がログ取得部13から供給されることにより、保存しておく必要がなくなった古いログ情報は削除される。
 ステップS44において、消費電力推定部18が、学習した消費電力変動モデルを用いた消費電力推定処理を実行する。すなわち、消費電力推定部18は、ログ時系列入力部15からのログ時系列データを消費電力変動モデルに入力し、現在時刻の消費電力値を推定(算出)する。推定結果の消費電力値は、推定消費電力表示部19に供給される。
 ステップS45において、推定消費電力表示部19は、消費電力推定部18から供給された現在時刻の消費電力値(の推定値)を、所定の方法で表示して、処理を終了する。
 以上のステップS41乃至S45の処理が、例えば、ログ取得部13で新たなログ情報が取得されるごとに実行される。
[HMM+RVMの詳細説明]
 次に、本実施の形態において、機器の消費電力変動を学習する学習モデルとして採用しているHMM+RVMの詳細について説明する。
 まず、一般的なHMMの確率モデルを示す。図6は、HMMのグラフィカルモデルを示している。
 観測される消費電力時系列データをY={Y1,Y2,Y3,・・・,Yt,・・・,YT}、ログ時系列データをX={X1,X2,X3,・・・,Xt,・・・,XT}、背後に想定される機器の隠れ状態に対応する隠れ変数の時系列データをS={S1,S2,S3,・・・,St,・・・ST}とすると、隠れ変数Stと観測データXt,Ytの同時確率は、次式(1)で与えられる。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、Ytは、消費電力計測部11の時刻tにおける消費電力の計測値ytであり、1次元のデータである。Xtは、ログ取得部13で取得される時刻tにおける複数種類(Dx個)のログ情報xt 1,xt 2,・・・,xt Dxであり、Dx次元のベクトルを表す。
 式(1)中の、P(S1)は初期確率、P(St|St-1)は隠れ状態St-1から隠れ状態Stへの状態遷移確率、P(Yt|St)およびP(Xt|St)は観測確率を表す。観測確率P(Yt|St)およびP(Xt|St)は、それぞれ、以下の式(2)および式(3)で計算される。
Figure JPOXMLDOC01-appb-M000002
 ここで、式(2)のρStは隠れ状態Stでの消費電力(出力Y)の平均値を表し、βは、出力Yにかかるガウスノイズの大きさ(分散)を表す。出力Yにかかるガウスノイズの大きさβは、隠れ状態に依存しないものとするが、依存するように定義することも容易にできる。同様に、式(3)のμStは隠れ状態Stでのログ情報(入力X)の平均値を表し、ΣStは、入力Xの分散を表す。また、Tは、転置を表す。
 以上の一般的なHMMの確率モデルに対して、本実施の形態において消費電力変動モデルとして採用するHMM+RVMの確率モデルは、以下の式(4)で表される。
Figure JPOXMLDOC01-appb-M000003
 式(4)のwStは、隠れ状態Stにおける入力Xと出力Yの線形回帰係数を表し、P(wS)は、線形回帰係数wSの事前確率分布を表す。線形回帰係数wSの事前確率分布P(wS)は、式(5)のとおり、平均ν0、分散α-1(αの逆行列)のガウス分布で仮定される。
Figure JPOXMLDOC01-appb-M000004
 なお、平均ν0は、0に設定されるとともに、分散α-1は対角行列とする。
 また、式(4)の観測確率P(Xt,Yt|St,wSt)は、式(6)のように観測確率P(Yt|Xt,wSt)と観測確率P(Xt|St)の積で表すことができ、観測確率P(Yt|Xt,wSt)および観測確率P(Xt|St)は、それぞれ、式(7)および式(8)で表される。
Figure JPOXMLDOC01-appb-M000005
 式(7)は、出力Ytが、隠れ状態Stの線形回帰係数wStを用いた入力Xtの線形回帰モデルで表されることを意味し、式(8)は、入力Xtが、平均μSt、分散ΣStのガウス分布で表されることを意味している。したがって、隠れ状態Stは、HMMのような、機器の隠れた状態を表すというよりも、消費電力値(出力Yt)とログ情報(入力Xt)との関係(確率的な関係性)を表す線形回帰モデルの変数(隠れ変数)であると言うことができる。また、出力Ytは、線形回帰モデルの目的変数であり、入力Xtとしての複数種類のログ情報が、線形回帰モデルの説明変数に相当する。
 図4を参照して説明したモデルパラメータ学習処理のステップS23におけるモデルパラメータの更新では、モデルパラメータ更新部21が、これらのパラメータ{w,ν0,α,β,μ,Σ,P(S|S'),P(S1)}を更新する。モデルパラメータの更新は、HMMで使用される反復型のアルゴリズムであるEMアルゴリズムと同様の要領で実行される。
[アルゴリズム更新処理の詳細フロー]
 図7のフローチャートを参照して、図4のステップS23として実行される、モデルパラメータ更新処理の詳細について説明する。
 初めに、ステップS61において、モデルパラメータ更新部21は、モデルパラメータの初期値を設定する。モデルパラメータの初期値は、例えば、乱数を用いて決定された値など、所定の方法で設定される。
 ステップS62において、モデルパラメータ更新部21は、各隠れ状態Sに付随した線形回帰係数wSを更新する。線形回帰係数wSは、点推定ではなく、分布で推定して更新する。すなわち、各隠れ状態Sに付随した線形回帰係数wSの分布をガウス分布q(wS)とすると、線形回帰係数wSのガウス分布q(wS)は、次式(9)で計算される。
Figure JPOXMLDOC01-appb-M000006
 ここで、<・>q(S)は、隠れ状態Sについての期待値を表す。式(9)のP(X,Y,S|w)は、w={wS1,wS2,wS3,・・・,wSt,・・・,wST}として、式(10)で表される。
Figure JPOXMLDOC01-appb-M000007
 より具体的には、ガウス分布q(wS)の平均をλS、分散をτSとすると、平均λSと分散τSは、以下の式(11)および式(12)で更新される。
Figure JPOXMLDOC01-appb-M000008
 ここで、qt(S)は、時刻tにおいて隠れ状態Sにある確率を表し、後述する式(23)で表される。
 ステップS63において、モデルパラメータ更新部21は、次式(13)により、出力Yのガウスノイズの大きさβを更新する。
Figure JPOXMLDOC01-appb-M000009
 ステップS64において、モデルパラメータ更新部21は、次式(14)により、ある時刻において隠れ状態S'にいるとき、次の時刻で隠れ状態Sに遷移する確率である遷移確率P(S|S')を更新する。
Figure JPOXMLDOC01-appb-M000010
 ここで、qt(S',S)は、時刻tとt+1において、それぞれ隠れ状態S'とSに存在する確率を表す。
 ステップS65において、モデルパラメータ更新部21は、次式(15)乃至式(17)により、初期確率分布P(S1)、隠れ状態Sの入力Xの平均μSおよび分散ΣSを更新する。
Figure JPOXMLDOC01-appb-M000011
 ステップS66において、モデルパラメータ更新部21は、次式(18)で表される、隠れ状態Sの確率q(S)を計算する。
Figure JPOXMLDOC01-appb-M000012
 具体的には、モデルパラメータ更新部21は、時刻tにおいて状態Sにある確率qt(S)を、以下の手順で計算する。
 まず、モデルパラメータ更新部21は、状態Stのフォワード尤度α(St)とバックワード尤度β(St)を、次式(19)および式(20)により計算する。
Figure JPOXMLDOC01-appb-M000013
 ここで、p(Xt,Yt|St)は、
Figure JPOXMLDOC01-appb-M000014
 で計算される。
 次に、モデルパラメータ更新部21は、時刻tとt+1において、それぞれ隠れ状態SとS'に存在する確率qt(S,S')を、次式(22)により計算する。
Figure JPOXMLDOC01-appb-M000015
 そして、得られた確率qt(S,S')を用いて、モデルパラメータ更新部21は、式(23)により、時刻tにおいて状態Sにある確率qt(S)を計算する。
Figure JPOXMLDOC01-appb-M000016
 ステップS67において、モデルパラメータ更新部21は、線形回帰係数wSの事前確率分布P(wS)のパラメータ、すなわち、平均ν0および分散α-1を更新する。
 平均ν0および分散α-1は、概念的には、以下の条件を満たすものとなる。
Figure JPOXMLDOC01-appb-M000017
 ここで、N(wS;ν0,α-1)は、確率変数wSが平均ν0および分散α-1の正規分布に従うことを表し、KL(q(wS)||N(wS;ν0,α-1))は、q(wS)とN(wS;ν0,α-1)のカルバックライブラーダイバージェンスを表す。また、Argminは、全ての隠れ状態SについてのKL(q(wS)||N(wS;ν0,α-1))の和(Σ)を最小にする変数(ν0および分散α)を意味する。
 事前確率分布P(wS)の平均ν0および分散α-1は、具体的には、以下の式で計算することができる。
Figure JPOXMLDOC01-appb-M000018
 ステップS68において、モデルパラメータ更新部21は、モデルパラメータの収束条件を満たしているかを判定する。例えば、モデルパラメータ更新部21は、ステップS62乃至68の処理の繰り返し回数が予め設定した所定の回数に到達した場合、または、モデルパラメータの更新による状態尤度の変化量が所定値以内である場合に、モデルパラメータの収束条件を満たしていると判定する。
 ステップS68で、モデルパラメータの収束条件をまだ満たしていないと判定された場合、処理はステップS62に戻り、ステップS62乃至S68の処理が繰り返される。
 一方、ステップS68で、モデルパラメータの収束条件を満たしたと判定された場合、モデルパラメータ更新部21は、モデルパラメータ更新処理を終了する。
 なお、更新するモデルパラメータの計算順序は、必ずしも上述したステップS62乃至S67の順番で行う必要はなく、任意の順番で行うことができる。
 以上のモデルパラメータ更新処理により、モデルパラメータが更新されると、ステップS67で計算された、線形回帰係数wSの事前確率分布P(wS)の分散α-1のうち、多くのα-1 kが無限大となる。分散α-1 kが無限大であれば、平均ν0,kは0に設定されているので、すべての線形回帰係数wSの第k成分が強制的に0になる。これは、入力Xの第k成分の重要性が低いことを表し、第k成分の入力Xを使用しなくてもよいことを意味する。
 そこで、図4を参照して説明したモデルパラメータ学習処理のステップS25で実行される、不要なログ情報の判定処理では、線形回帰係数wSの第k成分が所定の閾値(例えば、0.01など)よりも小さいか否かを、ログ選択部23が判定する。そして、所定の閾値より小さい線形回帰係数wSの成分に対応するログ情報が、不要なログ情報と判定され、ログ選択部23は、不要と判定したログ情報を、次回以降使用しないように、ログ取得部13を選択制御する。
 なお、取得するログ情報の種類を新たに追加した場合には、追加したログ情報を加えて、学習処理、すなわち、図3のデータ収集処理および図4のモデルパラメータ学習処理を再び実行する必要がある。この場合、モデルパラメータの初期値には、モデルパラメータ記憶部22に記憶されている現時点のモデルパラメータを用いることができる。
[消費電力推定処理の詳細]
 次に、以上のようにして学習されたモデルパラメータを用いて、図5のステップS44で実行される、消費電力推定処理の詳細について説明する。
 消費電力推定処理においては、ログ時系列入力部15から、ログ時系列データのみが取得される。ここで取得された消費電力推定処理時のログ時系列データを{Xd 1,Xd 2,Xd 3,・・・,Xd t,・・・,Xd T}で表すと、消費電力推定部18は、以下の式(27)を満たす隠れ状態S* tを求める。
Figure JPOXMLDOC01-appb-M000019
 ここで、時刻tにおける隠れ状態Stとログ情報Xd tの同時確率分布P({St,Xd t})は、  
Figure JPOXMLDOC01-appb-M000020
で表される。
 式(27)は、取得されたログ時系列データ{Xd 1,Xd 2,Xd 3,・・・,Xd t,・・・,Xd T}が観測される尤度を、最も大にする状態遷移の過程(最尤状態系列)における時刻tの隠れ状態StをS* tとして求めるものである。最尤状態系列は、ビタビアルゴリズムを用いて求めることができる。
 ビタビアルゴリズム、および、EMアルゴリズム(Baum-Welchアルゴリズム)の詳細については、例えば、“パターン認識と機械学習(下)”,C.M.ビショップ著,(英語原書:“Pattern Recognition and Machine Learning (Information Science and Statistics) ”,Christopher M. BishopSpringer, New York, 2006.)のP.347,P.333に記載されている。
 消費電力推定部18は、式(27)を満たす隠れ状態S* tを求めた後、以下の式(29)により、消費電力の推定値Y* tを求める(推定する)。
Figure JPOXMLDOC01-appb-M000021
 したがって、消費電力の推定値Y* tは、隠れ状態S* tの線形回帰係数wSの平均λStと、入力Xtの内積により、求められる。
 消費電力推定部18は、図5のステップS44において、以上のようにして、現在時刻の消費電力値Y* tを推定する。
[HMMへの変形例]
 これまで説明したHMM+RVMのアルゴリズムは、HMMに、RVMを適用したものということができる。したがって、上述したHMM+RVMのモデルパラメータを所定の条件に設定すると、通常のHMMにもなる。そこで、消費電力変動モデルとして、通常のHMMを適用し、推定を行う場合について以下で説明する。
 初めに、上述したHMM+RVMからHMMへの変形について説明する。
 HMM+RVMで入力Xとしたログ時系列データXの第(Dx+1)次元目に新しい成分を加えたものを、HMMの入力X~と考える。すなわち、HMMの時刻tにおける入力X~tは、
Figure JPOXMLDOC01-appb-M000022
とする。
 また、線形回帰係数wSの事前確率分布P(wS)の分散α-1(αの逆行列)を、以下のように、第(Dx+1)成分を無限大、それ以外の成分を0に設定する。これにより、線形回帰係数wSの事前確率分布P(wS)のパラメータが固定化される。
Figure JPOXMLDOC01-appb-M000023
 この場合、上述した式(4)で表現されていたHMM+RVMの確率モデルは、以下の式(32)のように表すことができる。
Figure JPOXMLDOC01-appb-M000024
 ここで、式(32)の観測確率P(Xt,Yt|St)は、
Figure JPOXMLDOC01-appb-M000025
と変形できるから、結局、式(32)は、式(1)として示した通常のHMMの確率モデルとなる。なお、式(2)の観測確率P(Yt|St)のρStは、線形回帰係数wSの第(Dx+1)成分に相当する。
 消費電力変動モデルとして、通常のHMMを採用した場合には、上述したように、線形回帰係数wSの事前確率分布P(wS)のパラメータは固定化されるので、図7のステップS68の処理は省略される。また、事前確率分布P(wS)のパラメータの固定化により、図4のモデルパラメータ学習処理におけるステップS25の処理も省略される。
 したがって、消費電力変動モデルとして通常のHMMを採用した場合には、ログ選択部23による不要なログ情報の種類の選択制御はできなくなる。換言すれば、HMM+RVMでは、多種類のログ情報を入力Xとして与えた場合でも、情報処理装置1が、電力推定に必要なログ情報のみを(自動で)選択することができる。これにより、人が、消費電力の推定に使用する取得データの種類を判断し、取捨選択する必要はなく、人の負担を軽減することができる。また、一回の学習処理の終了後、次からのデータ収集処理、モデルパラメータ学習処理、および消費電力推定処理においては、不要なログ情報は取得しなくても済むので、取得するログの情報量および計算量も削減され、処理時間も短縮させることができる。すなわち、本技術のHMM+RVMを用いた確率モデルによれば、推定に有用なログ情報のみを使用して、効率の良く推定することができる。
 消費電力変動モデルとして、通常のHMMを採用した場合の消費電力推定処理では、線形回帰係数wSの事前確率分布P(wS)の分散α-1(αの逆行列)が、式(31)で構成されることから、消費電力の推定値Y* tを求める式は、HMM+RVMの式(29)から、以下の式(34)のように簡略化される。
Figure JPOXMLDOC01-appb-M000026
 消費電力変動モデルとして通常のHMMを採用した場合には、モデルパラメータの学習処理において、消費電力時系列データを重視した学習を行うことができる。式(35)は、学習モデルがHMMである場合の隠れ状態Sの確率分布q(S)の式である。
Figure JPOXMLDOC01-appb-M000027
 ここで、ωxは、観測されるログ時系列データに対する重み係数であり、ωyは、消費電力時系列データに対する重み係数である。式(35)において、消費電力時系列データの重み係数ωyをログ時系列データの重み係数ωxより大きく設定することにより、消費電力時系列データを重視した学習を行うことができる。
 上述した実施の形態においては、時刻tの観測データXtには、その時刻tに得られたログ情報をそのまま用いたが、必要に応じて、ログ情報に対して所定のデータ加工した後の値を、時刻tの観測データXtとして扱うようにすることができる。
 例えば、時刻tと、それからΔt時間前の時刻t-ΔtまでのBt個のログ情報を、時刻tの観測データXtとしてもよい。この場合、観測データXtは、Dx行Bt列のベクトルで構成される。
 また例えば、時刻tにおける複数種類(Dx個)のログ情報xt 1,xt 2,・・・,xt Dxのうち、所定の種類のログ情報xt i(i=1,2,・・・,Dxのいずれか)については、関数f(x)=log(1+x)を用いて変換した値log(1+xt i)を、入力Xの構成要素としてもよい。
 本実施の形態の学習モデルには、HMMをベースとした学習モデルを採用している。HMMを採用することにより、現在時刻の稼働状態だけでなく、現在時刻の稼働状態になるまでの過去の稼働状態の履歴をも考慮した推定が可能となるので、特許文献1のような線形式で推定する場合より、高精度に消費電力を推定することができる。例えば、ある一定期間CPUに負荷がかかり続けると、それによりCPUの温度が上がったり、ファンが回転するなどして消費電力が増大することがある。本実施の形態の学習モデルによれば、一定期間CPUが高負荷状態であることを履歴として学習した推定結果を出力することができる。
 上述した実施の形態では、本技術の学習モデルであるHMM+RVMを、消費電力時系列データとログ時系列データを観測時系列データとして、消費電力を推定する処理に適用した例について説明した。
 しかし、本技術のHMM+RVMを用いた推定処理は、消費電力以外の推定にも適用することができる。他の適用例について簡単に説明する。
 例えば、本技術は、ロボット等の物体の姿勢を推定する姿勢推定処理に適用することができる。この場合、ロボット等の物体に取り付けられた複数の加速度センサから得られる時系列センサデータと、物体の姿勢を示す位置の時系列データである位置時系列データを、それぞれ、学習処理における入力Xおよび出力Yとする。そして、推定処理では、時系列センサデータを用いて、現在の物体の姿勢を推定することができる。
 本技術を適用した姿勢を推定する学習モデルの学習処理によれば、ログ選択部23が、不要な加速度センサのセンサデータを除外することができる。現在時刻のセンサデータのみを用いた線形式では、現在の物体の姿勢を判定することは困難であるが、センサデータの時系列データを用いて、加速度の値の累積(積分)を利用することにより、物体の姿勢がどのように変化したかを推定することが可能となる。
 また、本技術は、例えば、ビデオコンテンツの特徴量系列から、人の感じる「うるささ」を推定する処理に適用することができる。この場合、ビデオコンテンツの特徴量(例えば、音量、画像の特徴量など)の時系列データと、人の感じる「うるささ」の時系列データを、それぞれ、学習処理における入力Xおよび出力Yとする。
 人の感じる「うるささ」は、音の種類や前後の文脈に依存するので、単純な音量とは異なる。また、「うるささ」という指標は、ビデオコンテンツの文脈(それまでのビデオの内容とその音声)に依存する。例えば、盛り上がりシーンでは、音量が「3」から「4」に変化したとしても、人はうるさいとは感じないが、音量「1」の静かなシーンで突然音量が「4」になったとすると、人はうるさいと感じる場合がある。したがって、現在時刻の特徴量だけでは、正確な「うるささ」の推定が困難であり、ビデオコンテンツの特徴量の時系列データを入力Xとすることで、人の感じる「うるささ」を、高精度に推定することが可能となる。
 そして、本技術を適用した「うるささ」を推定する学習モデルの学習処理によれば、ログ選択部23が、取得しているビデオコンテンツの特徴量のうち、不要な特徴量を判定し、使用しないように制御することができる。
 さらに、本技術は、例えば、ユーザのスマートフォンの操作状況を示す操作時系列データから、そのユーザのその日のテレビの視聴時間を推定する処理に適用することができる。この場合、時間インデックスtを日にち(日単位)とし、ユーザのスマートフォンの操作状況を示す操作時系列データと、そのユーザのテレビの視聴時間の時系列データを、それぞれ、学習処理における入力Xおよび出力Yとする。そして、推定処理では、ある日のマートフォンの操作状況を示す操作時系列データを用いて、その日のテレビの視聴時間を推定することができる。
 人間の行動パターンには、「ちょうど一週間前にテレビを沢山見ていた場合には、その日も沢山見る可能性が高い」など、履歴依存性がある。したがって、一日のユーザの行動状況だけで推定するよりも、数日間、数週間といった所定期間の時系列データを用いることで、高精度に推定することができる。なお、推定する項目は、「テレビの視聴時間」以外に、例えば、「車に乗っている時間」や、「フェイスブック(登録商標)等のSNS(Social Networking Service)にログインしている時間」などでもよい。
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
 バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
 入力部106は、キーボード、マウス、マイクロホンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
 以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータでは、プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得する取得部と、
 取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータを学習する学習部と、
 学習により得られた前記確率モデルのパラメータに基づいて、前記取得部が取得する前記説明時系列データに対応する前記説明変数を選択する選択部と、
 前記選択部の選択結果に基づいて前記取得部が取得した複数の前記説明時系列データを用いて、前記目的変数の値を推定する推定部と
 を備える情報処理装置。
(2)
 前記学習部は、前記目的変数と前記複数の説明変数との関係を隠れマルコフモデルで学習する
 前記(1)に記載の情報処理装置。
(3)
 前記目的変数が、前記隠れマルコフモデルの隠れ状態と1対1に対応する線形回帰係数と、前記説明変数との線形回帰モデルで表される
 前記(2)に記載の情報処理装置。
(4)
 前記選択部は、前記線形回帰係数が所定の閾値より小さい前記説明変数を、前記取得部が時系列データを取得しない説明変数として選択する
 前記(3)に記載の情報処理装置。
(5)
 情報処理装置が、
 推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得し、
 取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータを学習し、
 学習により得られた前記確率モデルのパラメータに基づいて、取得する前記説明時系列データに対応する前記説明変数を選択し、
 選択結果に基づいて取得した複数の前記説明時系列データを用いて、前記目的変数の値を推定する
 ステップを含む情報処理方法。
(6)
 コンピュータを、
 推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得する取得部と、
 取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータを学習する学習部と、
 学習により得られた前記確率モデルのパラメータに基づいて、前記取得部が取得する前記説明時系列データに対応する前記説明変数を選択する選択部と、
 前記選択部の選択結果に基づいて前記取得部が取得した複数の前記説明時系列データを用いて、前記目的変数の値を推定する推定部
 として機能させるためのプログラム。
 1 情報処理装置, 11 消費電力計測部, 12 消費電力時系列入力部, 13 ログ取得部, 15 ログ時系列入力部, 16 時系列履歴保存部, 17 モデル学習部, 18 消費電力推定部, 19 推定消費電力表示部, 21 モデルパラメータ更新部, 22 モデルパラメータ記憶部, 23 ログ選択部

Claims (6)

  1.  推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得する取得部と、
     取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータを学習する学習部と、
     学習により得られた前記確率モデルのパラメータに基づいて、前記取得部が取得する前記説明時系列データに対応する前記説明変数を選択する選択部と、
     前記選択部の選択結果に基づいて前記取得部が取得した複数の前記説明時系列データを用いて、前記目的変数の値を推定する推定部と
     を備える情報処理装置。
  2.  前記学習部は、前記目的変数と前記複数の説明変数との関係を隠れマルコフモデルで学習する
     請求項1に記載の情報処理装置。
  3.  前記目的変数が、前記隠れマルコフモデルの隠れ状態と1対1に対応する線形回帰係数と、前記説明変数との線形回帰モデルで表される
     請求項2に記載の情報処理装置。
  4.  前記選択部は、前記線形回帰係数が所定の閾値より小さい前記説明変数を、前記取得部が時系列データを取得しない説明変数として選択する
     請求項3に記載の情報処理装置。
  5.  情報処理装置が、
     推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得し、
     取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータを学習し、
     学習により得られた前記確率モデルのパラメータに基づいて、取得する前記説明時系列データに対応する前記説明変数を選択し、
     選択結果に基づいて取得した複数の前記説明時系列データを用いて、前記目的変数の値を推定する
     ステップを含む情報処理方法。
  6.  コンピュータを、
     推定対象の目的変数に対応する時系列データである目的時系列データと、前記目的変数を説明する複数の説明変数に対応する時系列データである複数の説明時系列データとを取得する取得部と、
     取得された前記目的時系列データと前記複数の説明時系列データとを用いて、確率モデルのパラメータを学習する学習部と、
     学習により得られた前記確率モデルのパラメータに基づいて、前記取得部が取得する前記説明時系列データに対応する前記説明変数を選択する選択部と、
     前記選択部の選択結果に基づいて前記取得部が取得した複数の前記説明時系列データを用いて、前記目的変数の値を推定する推定部
     として機能させるためのプログラム。
PCT/JP2013/065617 2012-06-13 2013-06-05 情報処理装置、情報処理方法、およびプログラム WO2013187295A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/398,586 US20150112891A1 (en) 2012-06-13 2013-06-05 Information processor, information processing method, and program
JP2014521283A JPWO2013187295A1 (ja) 2012-06-13 2013-06-05 情報処理装置、情報処理方法、およびプログラム
CN201380029697.9A CN104364805A (zh) 2012-06-13 2013-06-05 信息处理器、信息处理方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-133461 2012-06-13
JP2012133461 2012-06-13

Publications (1)

Publication Number Publication Date
WO2013187295A1 true WO2013187295A1 (ja) 2013-12-19

Family

ID=49758121

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/065617 WO2013187295A1 (ja) 2012-06-13 2013-06-05 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US20150112891A1 (ja)
JP (1) JPWO2013187295A1 (ja)
CN (1) CN104364805A (ja)
WO (1) WO2013187295A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013213825A (ja) * 2012-03-30 2013-10-17 Infometis Co Ltd 電気機器をモニタするための方法、及び、モニタ装置
JP2017194341A (ja) * 2016-04-20 2017-10-26 株式会社Ihi 異常診断方法、異常診断装置、及び異常診断プログラム
JP2019144862A (ja) * 2018-02-21 2019-08-29 ヤフー株式会社 予測装置、予測方法および予測プログラム
US11092460B2 (en) 2017-08-04 2021-08-17 Kabushiki Kaisha Toshiba Sensor control support apparatus, sensor control support method and non-transitory computer readable medium
US11163853B2 (en) 2017-01-04 2021-11-02 Kabushiki Kaisha Toshiba Sensor design support apparatus, sensor design support method and non-transitory computer readable medium

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9563530B2 (en) * 2013-12-03 2017-02-07 Kabushiki Kaisha Toshiba Device state estimation apparatus, device power consumption estimation apparatus, and program
US20170308825A1 (en) * 2014-10-24 2017-10-26 Nec Corporation Priority order determination system, method, and program for explanatory variable display
JPWO2017022207A1 (ja) * 2015-08-06 2018-06-14 日本電気株式会社 ユーザ情報推定システム、ユーザ情報推定方法およびユーザ情報推定プログラム
US11107016B2 (en) * 2016-08-18 2021-08-31 Virtual Power Systems, Inc. Augmented power control within a datacenter using predictive modeling
JP7048216B2 (ja) 2017-03-29 2022-04-05 三菱重工業株式会社 情報処理装置、情報処理方法およびプログラム
US11915159B1 (en) * 2017-05-01 2024-02-27 Pivotal Software, Inc. Parallelized and distributed Bayesian regression analysis
AU2019238653A1 (en) * 2018-03-20 2020-11-12 Gs Yuasa International Ltd. Degradation estimation apparatus, computer program, and degradation estimation method
US11778061B2 (en) * 2019-05-13 2023-10-03 Ntt Docomo, Inc. Feature extraction device and state estimation system
US11914955B2 (en) * 2019-05-21 2024-02-27 Royal Bank Of Canada System and method for machine learning architecture with variational autoencoder pooling
KR20200143780A (ko) * 2019-06-17 2020-12-28 현대자동차주식회사 차량용 이더넷 네트워크의 통신 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007002673A (ja) * 2005-06-21 2007-01-11 Ishikawajima Harima Heavy Ind Co Ltd ガスタービン性能の分析予測方法
JP2008009548A (ja) * 2006-06-27 2008-01-17 Omron Corp モデル作成装置および識別装置
JP2009140454A (ja) * 2007-12-11 2009-06-25 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2010022533A (ja) 2008-07-17 2010-02-04 Asmo Co Ltd アームレスト装置
JP2012064023A (ja) * 2010-09-16 2012-03-29 Sony Corp データ処理装置、データ処理方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4312143B2 (ja) * 2004-10-29 2009-08-12 富士通株式会社 ルール発見プログラム、ルール発見方法およびルール発見装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007002673A (ja) * 2005-06-21 2007-01-11 Ishikawajima Harima Heavy Ind Co Ltd ガスタービン性能の分析予測方法
JP2008009548A (ja) * 2006-06-27 2008-01-17 Omron Corp モデル作成装置および識別装置
JP2009140454A (ja) * 2007-12-11 2009-06-25 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2010022533A (ja) 2008-07-17 2010-02-04 Asmo Co Ltd アームレスト装置
JP2012064023A (ja) * 2010-09-16 2012-03-29 Sony Corp データ処理装置、データ処理方法、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"On-line outlier detection and data cleaning", COMPUTERS AND CHEMICAL ENGINEERING, vol. 28, 2004, pages 1635 - 1647
CHRISTOPHER M. BISHOP: "Pattern Recognition and Machine Learning", 2006, SPRINGER, pages: 347,333

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013213825A (ja) * 2012-03-30 2013-10-17 Infometis Co Ltd 電気機器をモニタするための方法、及び、モニタ装置
JP2017194341A (ja) * 2016-04-20 2017-10-26 株式会社Ihi 異常診断方法、異常診断装置、及び異常診断プログラム
US11163853B2 (en) 2017-01-04 2021-11-02 Kabushiki Kaisha Toshiba Sensor design support apparatus, sensor design support method and non-transitory computer readable medium
US11092460B2 (en) 2017-08-04 2021-08-17 Kabushiki Kaisha Toshiba Sensor control support apparatus, sensor control support method and non-transitory computer readable medium
JP2019144862A (ja) * 2018-02-21 2019-08-29 ヤフー株式会社 予測装置、予測方法および予測プログラム

Also Published As

Publication number Publication date
CN104364805A (zh) 2015-02-18
JPWO2013187295A1 (ja) 2016-02-04
US20150112891A1 (en) 2015-04-23

Similar Documents

Publication Publication Date Title
WO2013187295A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Simonetto et al. Time-varying convex optimization: Time-structured algorithms and applications
JP6507279B2 (ja) 管理方法、非一時的コンピュータ可読媒体および管理装置
Liu et al. An adaptive sampling strategy for online high-dimensional process monitoring
CN108880931B (zh) 用于输出信息的方法和装置
Zou et al. A control chart based on a change-point model for monitoring linear profiles
JP7258965B2 (ja) ニューラルネットワークを使用する強化学習のための行動選択
JP6718500B2 (ja) 生産システムにおける出力効率の最適化
JP2007080190A (ja) センサネットワークシステム、センサノード、センサ情報収集装置、事象観測方法、およびプログラム
JP6158859B2 (ja) 予測装置、端末、予測方法及び予測プログラム
Ramprasad et al. Online bootstrap inference for policy evaluation in reinforcement learning
WO2022142494A1 (zh) 时序数据的异常监测方法、装置、电子设备和存储介质
Huang et al. Model diagnostic procedures for copula-based Markov chain models for statistical process control
Gunaratne et al. Exponentially weighted control charts to monitor multivariate process variability for high dimensions
CN111783810A (zh) 用于确定用户的属性信息的方法和装置
WO2016084326A1 (ja) 情報処理システム、情報処理方法、及び、記録媒体
Garcia et al. Parameter estimation in time-triggered and event-triggered model-based control of uncertain systems
CN107729144B (zh) 应用控制方法、装置、存储介质及电子设备
EP3758898A1 (en) Robot skill management
JP2011053776A (ja) ストーリー生成システム、方法、およびプログラム
Minh et al. Parallel workload modeling with realistic characteristics
Du et al. A novel locally regularized automatic construction method for RBF neural models
Aknouche et al. Recursive estimation of GARCH models
Guessoum et al. Central limit theorem for the kernel estimator of the regression function for censored time series
WO2021065962A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13805186

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014521283

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14398586

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013805186

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE