CN104364805A - 信息处理器、信息处理方法和程序 - Google Patents

信息处理器、信息处理方法和程序 Download PDF

Info

Publication number
CN104364805A
CN104364805A CN201380029697.9A CN201380029697A CN104364805A CN 104364805 A CN104364805 A CN 104364805A CN 201380029697 A CN201380029697 A CN 201380029697A CN 104364805 A CN104364805 A CN 104364805A
Authority
CN
China
Prior art keywords
time series
series data
time
unit
variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380029697.9A
Other languages
English (en)
Inventor
渡边有祐
伊藤真人
田森正纮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104364805A publication Critical patent/CN104364805A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing

Abstract

本技术涉及一种能够高度精确地设置目标变量的值的信息处理装置、信息处理方法和程序。日志获取部获取目标时间系列数据和多个系列的说明时间系列数据,目标时间系列数据与希望估计的目标变量对应,所述多个系列的说明时间系列数据是与说明目标变量的多个说明变量对应的时间系列数据。使用获取的目标时间系列数据和多个系列的说明时间系列数据,模型参数更新部学习概率模型的参数。基于通过学习获得的概率模型的参数,日志选择部选择与由日志获取部获取的说明时间系列数据对应的说明变量。基于由选择部的选择的结果,估计部使用由日志获取部分获取的所述多个系列的说明时间系列数据估计目标变量的值。本技术能够被应用于例如用于估计机器的功耗的信息处理装置。

Description

信息处理器、信息处理方法和程序
技术领域
本技术涉及一种信息处理器、信息处理方法和程序,具体地讲,涉及一种高效地并且高度精确地估计目的变量值的信息处理器、信息处理方法和程序。
背景技术
已提供用于估计电子装置的功耗的技术,在该技术中,作为电子装置部件的CPU的负载因数等被定义为说明变量,以说明变量及其功率系数的线形式对电子装置的功耗进行建模,并且基于部件的工作状态估计功耗(例如,参见专利文献1)。
引用列表
专利文献
专利文献1:JP 2010-22533 A
发明内容
本发明要解决的问题
然而,根据专利文献1的技术仅使用在时间t的部件的工作状态(值)以便估计在时间t的功耗。因此,根据专利文献1的技术不能考虑到直至时间t的工作状态历史而估计功耗。
另外,在根据专利文献1的技术中,需要由人确定和选择用于功耗的估计的获取数据(与说明变量对应的数据)的种类以防止多重共线性的问题。
考虑到这种情况而提出本技术,并且本技术的一个目的是通过考虑直至当前时间的工作状态历史而自动选择获取的数据来高效地并且高度精确地估计目的变量值。
问题的解决方案
根据本技术的一个方面,一种信息处理器包括获取单元、学习单元、选择单元和估计单元。获取单元获取目的时间序列数据和多个说明时间序列数据,目的时间序列数据是与待估计的目的变量对应的时间序列数据,所述多个说明时间序列数据是与用于说明目的变量的多个说明变量对应的时间序列数据。学习单元使用获取的目的时间序列数据和多个说明时间序列数据学习概率模型的参数。选择单元基于已通过学习获得的概率模型的参数,选择与要由获取单元获取的说明时间序列数据对应的说明变量。估计单元基于选择单元的选择结果,使用已由获取单元获取的所述多个说明时间序列数据估计目的变量的值。
根据本技术的一个方面,在一种信息处理方法中,信息处理器获取目的时间序列数据和多个说明时间序列数据,目的时间序列数据是与要估计的目的变量对应的时间序列数据,所述多个说明时间序列数据是与用于说明目的变量的多个说明变量对应的时间序列数据;使用获取的目的时间序列数据和多个说明时间序列数据学习概率模型的参数;基于已通过学习获得的概率模型的参数选择与要获取的说明时间序列数据对应的说明变量;以及基于选择结果使用已获取的所述多个说明时间序列数据估计目的变量的值。
根据本技术的一个方面,一种程序使计算机用作获取单元、学习单元、选择单元和估计单元。获取单元获取目的时间序列数据和多个说明时间序列数据,目的时间序列数据是与要估计的目的变量对应的时间序列数据,所述多个说明时间序列数据是与用于说明目的变量的多个说明变量对应的时间序列数据。学习单元使用获取的目的时间序列数据和多个说明时间序列数据学习概率模型的参数。选择单元基于通过学习获得的概率模型的参数,选择与要由获取单元获取的说明时间序列数据对应的说明变量。估计单元基于选择单元的选择结果使用已由获取单元获取的所述多个说明时间序列数据估计目的变量的值。
在本技术的一个方面中,获取目的时间序列数据和多个说明时间序列数据,目的时间序列数据是与要估计的目的变量对应的时间序列数据,所述多个说明时间序列数据是与用于说明目的变量的多个说明变量对应的时间序列数据。获取的目的时间序列数据和所述多个说明时间序列数据被用于学习概率模型的参数。基于通过学习获得的概率模型的参数,选择与获取的说明时间序列数据对应的说明变量。基于选择结果使用已获取的多个说明时间序列数据估计目的变量的值。
要注意的是,能够通过经传输介质传输或者通过记录在记录介质中来提供所述程序。
所述信息处理器可以是独立设备或构成一个设备的内部块。
本发明的效果
根据本技术的一个方面,能够高效地并且高度精确地估计目的变量的值。
附图说明
图1是示出装置功耗估计处理的示意图。
图2是示出根据应用本技术的信息处理器的实施例的示例性结构的方框图。
图3是示出数据收集处理的流程图。
图4是示出模型参数学习处理的流程图。
图5是示出功耗估计处理的流程图。
图6是示出HMM图形模型的图。
图7是示出模型参数更新处理的流程图。
图8是示出根据应用本技术的计算机的实施例的示例性结构的方框图。
具体实施方式
[信息处理器的处理的概要]
首先,将参照图1描述在应用本技术的信息处理器中执行的装置功耗估计处理的概要。
将在以下描述的图2中示出的信息处理器1获取代表装置(电子装置)中的预定部件的工作状态的时间系列数据。要注意的是,获取的时间系列数据是例如CPU利用率、存储器(RAM)存取速度、可移动介质的写/读计数,如图1中所示。在获取代表工作状态的时间系列数据时,信息处理器1还同时获取关于装置功耗的时间系列数据。
信息处理器1最初使用预定学习模型学习多种工作状态和功耗之间的关系。由信息处理器1学习的学习模型在以下被称为功耗变化模型。
在已通过学习确定功耗变化模型(参数)之后,信息处理器1使用学习的功耗变化模型,仅基于新输入的代表所述多种工作状态的时间系列数据估计当前装置功耗。信息处理器1实时地在显示器上显示例如当前功耗作为估计结果。
信息处理器1的处理包括两个主要处理。第一处理是用于使用预定学习模型学习多种工作状态和功耗之间的关系的学习处理。第二处理是用于使用已在学习处理中获得的学习模型估计当前装置功耗的功耗估计处理。
所述装置(电子装置)包括移动终端(诸如,智能电话或平板计算机终端)或静止个人计算机。另外,所述装置可以是电视机、内容记录器/播放器等。信息处理器1可被包括在要估计功耗的装置的一部分中,或者可包括不同于要估计的装置的设备并且被构造为连接到要估计的装置以便执行估计。信息处理器1可被形成为包括多个设备的信息处理系统。
[信息处理器的功能框图]
图2是示出信息处理器1的功能结构的方框图。
信息处理器1包括功耗测量单元11、功耗时间系列输入单元12、日志获取单元13、装置控制单元14、日志时间系列输入单元15、时间系列历史存储单元16、模型学习单元17、功耗估计单元18和估计功耗显示单元19。
功耗测量单元11包括例如功率表(钳型表)、测试器或示波器。功耗测量单元连接到装置的电源线,测量在每个时间的装置功耗,并且将测量结果输出到功耗时间系列输入单元12。
功耗时间系列输入单元12在预定时间段内积累从功耗测量单元11提供的在每个时间的功耗值。功耗时间系列输入单元12由此产生功耗值的时间系列数据。产生的功耗值的时间系列数据(以下也被称为时间系列功耗数据)包括在预定时间段内收集的获取时间和功耗值的集合。
日志获取单元13获取代表装置中的预定部件的工作状态的数据作为日志信息。日志获取单元13同时获取多种日志信息,并且将获取的信息输出到日志时间系列输入单元15。由日志获取单元13获取的日志信息的种类包括CPU利用率、GPU利用率、Wi-Fi通信量、移动通信通信量(3G通信量)、显示亮度、或运行应用列表和CPU利用率的成对数据,但日志信息的种类不限于它们。
在功耗变化模型的学习处理中,装置控制单元14控制装置采用各种状态,以便学习在各种可能的状态下的功耗作为功耗变化模型。例如,装置控制单元14同时开始并且运行多种应用(诸如,游戏和电子表格处理软件)或者执行或者停止数据通信,以使得装置执行可能的组合的工作状态。
在学习处理中,日志时间系列输入单元15在预定时间段内积累从日志获取单元13提供的代表在每个时间的工作状态的日志信息。日志时间系列输入单元15由此将所获得的时间系列日志数据输出到时间系列历史存储单元16。
另外,在功耗估计处理中,日志时间系列输入单元15在预定时间段内积累从日志获取单元13提供的在每个时间的日志信息。日志时间系列输入单元15由此将所获得的时间系列日志数据输出到功耗估计单元18。
要注意的是,当日志信息的种类是例如运行应用列表和CPU利用率的成对数据时,从装置控制单元14向日志时间系列输入单元15提供运行应用列表,并且从日志获取单元13向日志时间系列输入单元15提供CPU利用率。
日志时间系列输入单元15根据需要执行数据处理(诸如,异常值去除处理)。异常值去除处理能够采用例如在Liu等人的Computersand Chemical Engineering 28(2004)的第1635-1647页中的“On-lineoutlier detection and data cleaning”中提供的处理。
时间系列历史存储单元16存储从功耗时间系列输入单元12提供的时间系列功耗数据和从日志时间系列输入单元15提供的时间系列日志数据。当模型学习单元17学习(更新)功耗变化模型时,使用已被存储在时间系列历史存储单元16中的时间系列功耗数据和时间系列日志数据。
模型学习单元17包括模型参数更新单元21、模型参数存储单元22和日志选择单元23。
模型参数更新单元21使用已被存储在时间系列历史存储单元16中的时间系列功耗数据和时间系列日志数据来学习功耗变化模型,并且使模型参数存储单元22存储所获得的功耗变化模型的参数。以下,功耗变化模型的参数也被简单地称为模型参数。
另外,当新的时间系列功耗数据和新的时间系列日志数据被存储在时间系列历史存储单元16中时,模型参数更新单元21使用新的时间系列数据更新存储在模型参数存储单元22中的功耗变化模型的参数。
模型参数更新单元21采用混合HMM+RVM作为代表功耗变化模型的概率模型,混合HMM+RVM是相关向量机(RVM)和代表在隐状态S下的装置的工作状态的隐马尔可夫模型(HMM)的概率模型。将在稍后详细描述HMM+RVM。
模型参数存储单元22存储已由模型参数更新单元21更新(学习)的功耗变化模型的参数。存储在模型参数存储单元22中的功耗变化模型的参数被提供给功耗估计单元18。
日志选择单元23选择性地控制由日志获取单元13获取的所述多种日志信息中的不必要的(种类的)日志信息。更具体地讲,日志选择单元23基于存储在模型参数存储单元22中的功耗变化模型的参数(值)确定不必要的日志信息。日志选择单元23基于确定结果控制日志获取单元13,以使得不获取被确定为不必要的日志信息。
功耗估计单元18从模型参数存储单元22获取已在学习处理中获得的功耗变化模型的参数。在功耗估计处理中,功耗估计单元18将从日志时间系列输入单元15提供的在当前时间之前的预定时间段内的时间系列日志数据输入到学习的功耗变化模型。另外,功耗估计单元18估计当前时间的功耗值。从该估计获得的功耗值被提供给估计功耗显示单元19。
估计功耗显示单元19以预定方式显示从功耗估计单元18提供的当前时间的功耗值。例如,估计功耗显示单元19以数字方式显示当前时间的功耗值,或者以图形方式显示在当前时间之前的所述预定时间段内的功耗值的转变。
信息处理器1被如上所述构造。
[数据收集处理的流程图]
将参照图3的流程图描述数据收集处理。数据收集处理是信息处理器1的学习处理的一部分,并且被构造为收集用于计算模型参数的数据。
首先,在步骤S1中,功耗测量单元11开始测量装置功耗。在步骤S1的处理之后,以预定时间间隔测量功耗,并且测量结果被顺序地输出到功耗时间系列输入单元12。
在步骤S2中,装置控制单元14启动并且运行多种应用。
在步骤S3中,日志获取单元13开始获取多种日志信息。在步骤S3的处理之后,以预定时间间隔获取所述多种日志信息,并且所述多种日志信息被顺序地输出到日志时间系列输入单元15。
可按照任何次序执行步骤S1至S3的处理。另外,可同时执行步骤S1至S3的处理。
在步骤S4中,功耗时间系列输入单元12在预定时间段内积累从功耗测量单元11提供的在每个时间的功耗值。功耗时间系列输入单元12由此产生时间系列功耗数据。功耗时间系列输入单元12将产生的时间系列功耗数据提供给时间系列历史存储单元16。
在步骤S5中,日志时间系列输入单元15在预定时间段内积累从日志获取单元13提供的在每个时间的日志信息。日志时间系列输入单元15由此产生时间系列日志数据。日志时间系列输入单元15将产生的时间系列日志数据提供给时间系列历史存储单元16。
在步骤S6中,时间系列历史存储单元16存储从功耗时间系列输入单元12提供的时间系列功耗数据和从日志时间系列输入单元15提供的时间系列日志数据。
在已执行步骤S1至S6的处理之后,学习数据(时间系列功耗数据和时间系列日志数据的集合)被存储在时间系列历史存储单元16中。所述学习数据是在由装置控制单元14在步骤S2中控制的预定工作条件下获得的。
信息处理器1以各种方式将工作条件改变为彼此不同,将上述数据收集处理重复预定次数,并且积累在各种可能的工作状态下的学习数据。也就是说,信息处理器1以各种方式改变步骤S2的处理,将步骤S1至S6的处理重复预定次数,并且将在各种可能的工作状态下的学习数据存储在时间系列历史存储单元16中。
[模型参数学习处理的流程图]
接下来,将参照图4的流程图描述模型参数学习处理。模型参数学习处理是信息处理器1的学习处理的一部分,并且被构造为使用已在数据收集处理中收集的学习数据得出模型参数。
首先,在步骤S21中,模型参数更新单元21从模型参数存储单元22获取当前模型参数。当模型参数更新单元21第一次学习功耗变化模型时,模型参数的初始值被存储在模型参数更新单元21中。
在步骤S22中,模型参数更新单元21获取存储在时间系列历史存储单元16中的时间系列功耗数据和时间系列日志数据。
在步骤S23中,模型参数更新单元21利用从模型参数存储单元22获取的当前模型参数作为初始值,使用从时间系列历史存储单元16获取的新的时间系列功耗数据和新的时间系列日志数据来更新模型参数。
在步骤S24中,模型参数更新单元21将更新的模型参数提供给模型参数存储单元22,并且使模型参数存储单元22存储更新的模型参数。模型参数存储单元22在当前模型参数上覆写从模型参数更新单元21提供的更新的模型参数,并且存储覆写的参数。
在步骤S25中,日志选择单元23基于存储在模型参数存储单元22中的更新的模型参数,确定不必要的日志信息。日志选择单元23基于确定结果控制日志获取单元13,以使得不获取被确定为不必要的日志信息。从下一次起,日志选择单元23的选择控制被反映在由日志获取单元13执行的日志信息获取处理(步骤S3的处理)中。
如上所述,使用存储在时间系列历史存储单元16中的新的时间系列功耗数据和新的时间系列日志数据执行模型参数的学习(更新)。
[功耗估计处理的流程图]
接下来,将参照图5的流程图描述用于使用学习的模型参数估计在当前工作状态下的功耗的功耗估计处理。
首先,在步骤S41中,功耗估计单元18从模型参数存储单元22获取已通过学习处理获得的模型参数。
在步骤S42中,日志获取单元13获取当前时间的多种当前日志信息,并且将日志信息输出到日志时间系列输入单元15。在步骤S42的处理中,仅获取由日志选择单元23选择性地控制的种类的日志信息。
在步骤S43中,日志时间系列输入单元15暂时存储从日志获取单元13提供的当前时间的日志信息。日志时间系列输入单元15将在当前时间之前的预定时间段内的时间系列日志数据提供给功耗估计单元18。从日志获取单元13提供当前时间的日志信息以擦除不需要存储的旧的日志信息。
在步骤S44中,功耗估计单元18使用学习的功耗变化模型执行功耗估计处理。也就是说,功耗估计单元18将来自日志时间系列输入单元15的时间系列日志数据输入到功耗变化模型,并且估计(计算)当前时间的功耗值。从该估计获得的功耗值被提供给估计功耗显示单元19。
在步骤S45中,估计功耗显示单元19以预定方式显示在当前时间的功耗值(估计值),并且结束该处理,其中从功耗估计单元18提供在当前时间的功耗值。
例如,在每次日志获取单元13获取新的日志信息时执行上述步骤S41至S45的处理。
[HMM+RVM的详细描述]
接下来,在本实施例中,将详细地描述用作用于学习装置功耗的变化的学习模型的HMM+RVM。
首先,将描述HMM的一般概率模型。图6示出HMM的图形模型。
隐变量St以及观测数据Xt和Yt的联合概率由下面的公式(1)表示,其中观测时间系列功耗数据由Y={Y1,Y2,Y3,...,Yt,...,YT}表示,观测时间系列日志数据由X={X1,X2,X3,...,Xt,...,XT}表示,并且与可能的背面装置的隐状态对应的隐变量的时间系列数据由S={S1,S2,S3,...,St,...,ST}表示。
[数学式1]
P ( { S t , Y t , X t } ) = P ( S 1 ) P ( X 1 | S 1 ) P ( Y 1 | S 1 ) Π t = 2 T P ( S t | S t - 1 ) P ( X t | S t ) P ( Y t | S t ) . . . ( 1 )
在式(1)中,Yt代表在时间t的功耗测量单元11的功耗测量值yt,并且是一维数据。Xt是在日志获取单元13获取的在时间t的多种(Dx个)日志信息xt 1,xt 2,...,xt Dx,并且表示Dx维向量。
在式(1)中,P(S1)表示初始概率,P(St|St-1)表示从隐状态St-1转换为隐状态St的状态转换概率,并且P(Yt|St)和P(Xt|St)表示观测概率。分别使用下面的式(2)和式(3)计算观测概率P(Yt|St)和P(Xt|St)。
[数学式2]
P ( Y t | S t ) = β - 1 / 2 ( 2 π ) - 1 / 2 exp ( - 1 2 ( Y t - ρ S t ) β - 1 ( Y t - ρ S t ) ) . . . ( 2 )
P ( X t | S t ) = | Σ S t | - 1 / 2 ( 2 π ) - Dx / 2 exp ( - 1 2 ( X t - μ S t ) T Σ S t - 1 ( X t - μ S t ) ) . . . ( 3 )
在式(2)中,ρSt表示在隐状态St下的功耗(输出Y)的平均值,并且β表示输出Y上的高斯噪声的大小(方差)。输出Y上的高斯噪声的大小β被定义为独立于隐状态,但它能够容易地被定义为依赖于隐状态。类似地,在式(3)中,μSt表示在隐状态St下的日志信息(输入X)的平均值,并且ΣSt表示输入X的方差。T表示转置。
与上述HMM的一般概率模型相对,本实施例采用由下面的式(4)表示的HMM+RVM的概率模型作为功耗变化模型。
[数学式3]
P ( { S t , Y t , X t , w S t } ) = P ( S 1 ) P ( X 1 , Y 1 | S 1 , w S 1 ) Π t = 2 T P ( S t | S t - 1 ) P ( X t , Y t | S t , w S t ) Π S P ( w S ) . . . ( 4 )
在式(4)中,wSt表示在隐状态St下的输入X和输出Y的线性回归系数,并且P(wS)表示线性回归系数wS的先验概率分布。如式(5)中所示,对于线性回归系数wS的先验概率分布P(wS),假设具有平均值ν0和方差α-1(α的逆矩阵)的高斯分布。
[数学式4]
P ( w S ) = | α | - 1 / 2 ( 2 π ) - Dx / 2 exp ( - 1 2 ( w S - v 0 ) T α ( w S - v 0 ) ) . . . ( 5 )
要注意的是,平均值ν0被设置为0,并且方差α-1是对角矩阵。
式(4)中的观测概率P(Xt,Yt|St,wSt)被表示为观测概率P(Yt|Xt,wSt)和观测概率P(Xt|St)的乘积,如式(6)中所示。观测概率P(Yt|Xt,wSt)和观测概率P(Xt|St)分别被表示为式(7)和(8)。
[数学式5]
P ( X t , Y t | S t , w S t ) = P ( Y t | , X t , w S t ) P ( X t | S t ) . . . ( 6 )
P ( Y t | X t , w S t ) = β - 1 / 2 ( 2 π ) - 1 / 2 exp ( - 1 2 ( Y t - w S t T X t ) T β - 1 ( Y t - w S t T X t ) ) . . . ( 7 )
P ( X t | S t ) = | Σ S t | - 1 / 2 ( 2 π ) - Dx / 2 exp ( - 1 2 ( X t - μ S t ) T Σ S t - 1 ( X t - μ S t ) ) . . . ( 8 )
式(7)显示输出Yt由使用隐状态St的线性回归系数wSt的输入Xt的线性回归模型表示,并且式(8)显示输入Xt由具有平均值μSt和方差ΣSt的高斯分布表示。因此,可以说,隐状态St代表表示功耗值(输出Yt)和日志信息(输入Xt)之间的关系(概率关系)的线性回归模型的变量(隐变量),而非由HMM代表的装置的隐状态。另外,输出Yt是线性回归模型中的目的变量,并且作为输入Xt的所述多种日志信息对应于线性回归模型中的说明变量。
在已参照图4描述的模型参数学习处理的步骤S23中的模型参数的更新中,模型参数更新单元21更新这些参数{w,ν0,α,β,μ,Σ,P(S|S’),P(S1)}。以与EM算法相同的方式更新模型参数,EM算法是用在HMM中的迭代算法。
[算法更新处理的详细流程]
参照图7的流程图,将详细地描述作为图4的步骤S23执行的模型参数更新处理。
首先,在步骤S61中,模型参数更新单元21设置模型参数的初始值。通过预定方法设置模型参数的初始值。例如,使用随机数确定初始值。
在步骤S62中,模型参数更新单元21更新与每个隐状态S关联的线性回归系数wS。不通过点估计更新线性回归系数wS,而是通过分布估计更新线性回归系数wS。也就是说,当与隐状态S关联的线性回归系数wS的分布是高斯分布q(wS)时,通过下面的式(9)计算线性回归系数wS的高斯分布q(wS)。
[数学式6]
log q(ws)=log P(ws)+<log P(X,Y,S|ws)>q(s)...(9)
要注意的是,<·>q(s)表示隐状态S的预期值。在式(9)中,P(X,Y,S|w)由式(10)表示,其中w={wS1,wS2,wS3,...,wSt,...,wST}。
[数学式7]
P ( X , Y , S | w ) = P ( S 1 ) P ( X 1 , Y 1 | S 1 , w S 1 ) &Pi; t = 2 T P ( S t | S t - 1 ) P ( X t , Y t | S t , w S t ) . . . ( 10 )
更具体地讲,通过下面的式(11)和(12)更新平均值λS和方差τS,其中高斯分布q(wS)的平均值由λS表示,并且其方差由τS表示。
[数学式8]
&tau; S = &alpha; + &beta; &Sigma; t q t ( S ) X t X t T . . . ( 11 )
&lambda; S = &tau; S - 1 ( &alpha; v 0 + &beta; &Sigma; t q t ( S ) Y t X t ) . . . ( 12 )
要注意的是,qt(S)表示在时间t存在隐状态S的概率,并且由将在以下描述的式(23)表示。
在步骤S63中,模型参数更新单元21通过下面的式(13)更新输出Y的高斯噪声的大小β。
[数学式9]
&beta; = 1 T &Sigma; t &Sigma; S t q t ( S t ) ( ( y t - &lambda; S t T X t ) 2 + X t T &tau; S t X t ) . . . ( 13 )
在步骤S64中,模型参数更新单元21通过下面的式(14)更新转换概率P(S|S'),转换概率P(S|S')是从一个时刻的隐状态S’转换为下一个时刻的隐状态S的概率。
[数学式10]
P ( S | S , ) = &Sigma; t q t ( S , , S ) / &Sigma; S , , &Sigma; t q t ( S , , S , , ) . . . ( 14 )
要注意的是,qt(S',S)表示在时刻t和t+1分别存在隐状态S’和S的概率。
在步骤S65中,模型参数更新单元21通过下面的式(15)至(17)更新初始概率分布P(S1)以及在隐状态S下的输入X的平均值μS和方差ΣS
[数学式11]
P(S1)=q1(S1)         ...(15)
&mu; S = &Sigma; t X t q t ( S ) . . . ( 16 )
&Sigma; S = &Sigma; t q t ( S ) ( X t - &mu; S ) T ( X t - &mu; S ) . . . ( 17 )
在步骤S66中,模型参数更新单元21计算由下面的式(18)表示的隐状态S的概率q(S)。
[数学式12]
log q(S)=<log p(x,y,s|w)>q(w)...(18)
具体地讲,模型参数更新单元21根据下面的过程计算在时刻t存在状态S的概率qt(S)。
首先,模型参数更新单元21通过下面的式(19)和(20)计算在状态St下的向前可能性α(St)和向后可能性β(St)。
[数学式13]
&alpha; ( S t ) = p ( X t , Y t | S t ) &Sigma; S t - 1 &alpha; ( S t - 1 ) p ( S t | S t - 1 ) . . . ( 19 )
&beta; ( S t ) = &Sigma; S t + 1 &beta; ( S t + 1 ) p ( X t + 1 | S t + 1 ) p ( S t + 1 | S t ) . . . ( 20 )
要注意的是,通过下面的[数学式14]计算p(Xt,Yt|St)。
p ( X t , Y t | S t ) = exp ( - &beta; 2 { ( y t - &lambda; S t X t ) 2 + X t T &tau; S t X t } ) . . . ( 21 )
接下来,模型参数更新单元21通过下面的式(22)计算在时刻t和时刻t+1分别存在隐状态S和S’的概率qt(S,S’)。
[数学式15]
q t ( S , S , ) = &alpha; ( S t - 1 ) p ( X t | S t ) p ( S t | S t - 1 ) &beta; ( S t ) p ( X ) . . . ( 22 )
利用获得的概率qt(S,S’),模型参数更新单元21通过式(23)计算在时刻t存在状态S的概率qt(S)。
[数学式16]
q t ( S ) = &Sigma; S , q t ( S , S , ) . . . ( 23 )
在步骤S67中,模型参数更新单元21更新线性回归系数wS的先验概率分布P(wS)的参数或者平均值ν0和方差α-1
平均值ν0和方差α-1在概念上满足下面的条件。
[数学式17]
( v 0 , &alpha; ) = Arg min &Sigma; S KL ( q ( w S ) ) | | N ( w S ; v 0 , &alpha; - 1 ) ) . . . ( 24 )
要注意的是,N(wS;ν0-1)代表概率变量wS在具有平均值ν0和方差α-1的情况下正态分布,并且KL(q(wS)||N(wS;ν0-1))表示q(wS)和N(wS;ν0-1)之间的Kullback–Leibler散度。另外,Argmin代表用于使在所有隐状态S下的KL(q(wS)||N(wS;ν0-1))的总和(Σ)最小化的变量(ν0和方差α)。
具体地讲,通过下面的式子计算先验概率分布P(wS)的平均值ν0和方差α-1
[数学式18]
v 0 = 1 N &Sigma; S &lambda; S . . . ( 25 )
&alpha; k - 1 = 1 N ( &Sigma; S &tau; S , k + &Sigma; S ( &lambda; S , k - v 0 , k ) 2 ) . . . ( 26 )
下标k表示第k分量。
在步骤S68中,模型参数更新单元21确定是否已满足模型参数的收敛条件。例如,当步骤S62至68的处理的重复计数达到预设预定计数时,或者当通过模型参数的更新产生的状态可能性的变化位于预定值范围内时,模型参数更新单元21确定已满足模型参数的收敛条件。
在步骤S68中,当确定还未满足模型参数的收敛条件时,该处理返回到步骤S62,并且重复步骤S62至S68的处理。
另一方面,在步骤S68中,当确定已满足模型参数的收敛条件时,模型参数更新单元21完成模型参数更新处理。
应该理解,待更新的模型参数的计算次序不需要按照上述步骤S62至S67的次序执行,而是可按照任何次序执行。
当根据上述模型参数更新处理更新模型参数时,大量方差α-1 k具有无穷大值。从在步骤S67中计算的线性回归系数wS的先验概率分布P(wS)的方差α-1选择方差α-1 k。当方差α-1 k具有无穷大值时,所有线性回归系数wS的第k分量被限制为0,因为平均值ν0,k被设置为0。这代表输入X的第k分量不太重要,并且不需要使用具有第k分量的输入X。
因此,在已参照图4描述的模型参数学习处理的步骤S25中执行的不必要日志信息确定处理中,日志选择单元23确定线性回归系数wS的第k分量是否小于预定阈值(例如,0.01)。与小于所述预定阈值的线性回归系数wS的分量对应的日志信息被确定为不必要日志信息。日志选择单元23选择性地控制日志获取单元13,以使得以后不使用已被确定为不必要的日志信息。
要注意的是,当增加一种新的待获取的日志信息时,需要添加增加的日志信息以再次执行学习处理或图3中示出的数据收集处理和图4中示出的模型参数学习处理。在这种结构中,模型参数的初始值能够采用已被存储在模型参数存储单元22中的当前时间的模型参数。
[详细的功耗估计处理]
接下来,已如上所述学习的模型参数被用于详细地描述在图5的步骤S44中执行的功耗估计处理。
在功耗估计处理中,仅从日志时间系列输入单元15获取时间系列日志数据。功耗估计单元18求得满足下面的式(27)的隐状态S* t,其中已在功耗估计处理中获取的时间系列日志数据由{Xd 1,Xd 2,Xd 3,...,Xd t,...,Xd T}表示。
[数学式19]
S t * = Ar g max { S t } P ( { ( S t , X t d } ) . . . ( 27 )
要注意的是,在时刻t的隐状态St和日志信息Xd t之间的联合概率分布P({St,Xd t})由下面的[数学式20]表示。
P ( { S t , X t d } ) = P ( S 1 ) P ( X 1 d | S 1 ) &Pi; t = 2 T P ( S t | S t - 1 ) P ( X t d | S t ) . . . ( 28 )
在式(27)中,求得在状态转换(最大似然状态序列)期间在时刻t的隐状态St作为S* t。在状态转换中,使获取的时间系列日志数据{Xd 1,Xd 2,Xd 3,...,Xd t,...,Xd T}的观测的似然最大化。能够使用维特比算法获得最大似然状态序列。
例如,在“Pattern Recognition and Machine Learning(Information Science and Statistics)”(Christopher M.BishopSpringer,New York,2006,p.347,p.333)中详细地描述了维特比算法和EM算法(Baum-Welch算法)。
在求得满足式(27)的隐状态S* t之后,功耗估计单元18通过下面的式(29)求得(估计)功耗估计值Y* t
[数学式21]
Y t * = &lambda; S t * T X t . . . ( 29 )
因此,从输入Xt和在隐状态S* t下的线性回归系数wS的平均值λSt的内积得出功耗估计值Y* t
在图5的步骤S44中,功耗估计单元18估计当前时间的功耗值Y* t,如上所述。
[HMM的示例性变型]
可以说,通过将RVM应用于HMM来获得以上描述的HMM+RVM的算法。因此,当上述HMM+RVM的模型参数被设置为预定条件时,HMM+RVM也用作通常的HMM。将在以下描述作为功耗变化模型的通常的HMM的估计和应用。
首先,将描述从HMM+RVM到HMM的变型。
假设HMM的输入X~是加有HMM+RVM中的新分量的作为输入X的第(Dx+1)时间系列日志数据X。也就是说,HMM中的在时间t的输入X~t由下面的[数学式22]表示。
X t ~ = X t 1 . . . ( 30 )
线性回归系数wS的先验概率分布P(wS)的方差α-1(α的逆矩阵)被如下构造,其中第(Dx+1)分量被设置为无穷大值,并且其它分量被设置为0。因此,线性回归系数wS的先验概率分布P(wS)具有固定参数。
[数学式23]
&alpha; k = 0 : k &NotEqual; ( Dx + 1 ) &infin; : k = ( Dx + 1 ) . . . ( 31 )
在这种结构中,由以上描述的式(4)表示的HMM+RVM的概率模型能够被表示为下面的式(32)。
[数学式24]
P ( { S t , Y t , X t } ) = P ( S 1 ) P ( X 1 , Y 1 | S 1 ) &Pi; t = 2 T P ( S t | S t - 1 ) P ( X t , Y t | S t ) . . . ( 32 )
式(32)中的观测概率P(Xt,Yt|St)变形为[数学式25],因此,式(32)得出表示为式(1)的通常的HMM的概率模型。
P(Xt,Yt|St)=P(Yt|St)P(Xt|St)    ...(33)
要注意的是,式(2)中的观测概率P(Yt|St)的ρSt对应于线性回归系数wS的第(Dx+1)分量。
当通常的HMM被用作功耗变化模型时,线性回归系数wS的先验概率分布P(wS)具有固定参数,如上所述。因此,图7的步骤S68的处理被省略。另外,由于先验概率分布P(wS)具有固定参数,所以图4的模型参数学习处理中的步骤S25的处理也被省略。
因此,用作功耗变化模型的通常的HMM抑制由日志选择单元23执行的不必要种类的日志信息的选择控制。也就是说,在HMM+RVM中,即使给出多种日志信息作为输入X,信息处理器1也能够(自动地)仅选择功率估计所需的日志信息。因此,人不需要确定或选择用于功耗的估计的待获取的数据的种类,并且能够减少人的负担。在学习处理的一个周期已完成后,不需要在随后的数据收集处理、模型参数学习处理和功耗估计处理中获取不必要的日志信息。因此,减少待获取的日志信息的量和待计算的日志信息的量,并且另外还减少处理时间。也就是说,根据使用本技术的HMM+RVM的概率模型,仅对于估计有用的日志信息被用于执行高效估计。
当通常的HMM被用作功耗变化模型时,在功耗估计处理中,线性回归系数wS的先验概率分布P(wS)的方差α-1(α的逆矩阵)由式(31)表示。因此,基于HMM+RVM的式(29),用于求得功耗估计值Y* t的式子被简化为下面的式(34)。
[数学式26]
Y t * = &rho; S t * - - - ( 34 )
当通常的HMM被用作功耗变化模型时,在模型参数学习处理中,基于时间系列功耗数据执行学习。当学习模型是HMM时,式(35)是用于求得在隐状态S下的概率分布q(S)的式子。
[数学式27]
log q(S)=ωxlogP(X|S)+ωylogP(Y|S)+logP(S)...(35)
要注意的是,ωx是用于观测的时间系列日志数据的权重系数,并且ωy是用于时间系列功耗数据的权重系数。在式(35)中,用于时间系列功耗数据的权重系数ωy被设置为大于用于时间系列日志数据的权重系数ωx,基于时间系列功耗数据执行学习。
在上述实施例中,在时间t获得的日志信息被直接用于在时间t的观测数据Xt,但当需要时,通过使日志信息经受预定数据处理而获得的值能够被用作在时间t的观测数据Xt
例如,从时间t之前Δt小时的时间t-Δt到时间t获取的Bt条日志信息可以是在时间t的观测数据Xt。在这种结构中,观测数据Xt包括Dx行Bt列的向量矩阵。
另外,例如,从所述多种(Dx个)在时间t的日志信息xt 1,xt 2,...,xt Dx之中选择的任何预定种类的日志信息xt i(i=1,2,...,Dx)可包括使用函数f(x)=log(1+x)转换的值log(1+xt i)作为输入X的元素。
本发明的学习模型采用基于HMM的学习模型。HMM被用于允许不仅考虑到当前时间的工作状态还考虑到直至当前时间的工作状态的过去工作状态的历史而执行的估计。因此,与根据专利文献1的线性估计相比,能够高度精确地估计功耗。例如,在某个时间段内施加于CPU的连续负载可能因CPU的温度、风扇的转速等的上升而导致功耗的增加。根据本实施例,学习模型学习在某个时间段内的CPU的高负载条件作为历史,并且输出估计结果。
在上述实施例中,已描述针对功耗估计处理的HMM+RVM的示例性应用,其中HMM+RVM是本技术的学习模型,并且使用时间系列功耗数据和时间系列日志数据作为观测时间系列数据。
然而,使用本技术的HMM+RVM的估计处理能够被应用于除功耗估计之外的估计。将简要地描述其另一示例性应用。
例如,本技术能够被应用于用于估计物体(诸如,机器人)的姿态的姿态估计处理。在这个处理中,在学习处理中,从附接到物体(诸如,机器人)的多个加速度传感器获得的时间系列传感器数据和作为代表物体的姿态的位置时间系列数据的时间系列位置数据分别被定义为输入X和输出Y。在估计处理中,时间系列传感器数据能够被用于估计物体的当前姿态。
根据使用用于姿态估计的学习模型的本技术的学习处理,日志选择单元23能够消除不必要的加速度传感器的传感器数据。仅使用在当前时间的传感器数据的线性估计难以确定物体的当前姿态,但使用时间系列传感器数据积累(积分)的加速度值能够被用于估计物体的姿态的变化。
另外,本技术能够被应用于例如用于基于视频内容的特征序列估计对人的“噪度(noisiness)”的处理。在这种结构中,在学习处理中,视频内容的特征(例如,音量或图像的特征)的时间系列数据和对人的“噪度”的时间系列数据分别被定义为输入X和输出Y。
对人的“噪度”并不简单地取决于音量,还取决于上下文或声音的种类。“噪度”的指标取决于视频内容的上下文(视频内容的前面的内容和声音)。例如,在高潮场景中,即使音量从“3”升高至“4”,人也不感觉嘈杂,但当音量在安静的场景中从音量“1”突然升高至“4”,则人可能感觉嘈杂。因此,难以仅基于在当前时间的特征精确地估计“噪度”。然而,可通过将视频内容的特征的时间系列数据定义为输入X来高度精确地估计对人的“噪度”。
根据使用用于估计“噪度”的学习模型的本技术的学习处理,日志选择单元23控制从获取的视频内容的特征确定不必要的特征并且不使用不必要的特征。
另外,本技术能够被应用于例如用于基于代表用户的智能电话的工作状态的时间系列操作数据估计一天中的用户的TV观看时间的处理。在这种结构中,在学习处理中,时间索引t被设置为一天(以天为基础),并且代表用户的智能电话的工作状态的时间系列操作数据和用户的TV观看时间的时间系列数据分别被定义为输入X和输出Y。由此,在估计处理中,代表一天中的用户的智能电话的工作状态的时间系列操作数据被用于估计该天的TV观看时间。
人类行为的模式具有历史依存性,例如,“如果一个人在一天花费许多时间观看TV,则他/她将可能在一周也花费许多时间观看TV”。因此,与仅基于用户的日常行为情况的估计相比,通过使用在预定时间段(诸如,几天或几周)期间的时间系列数据能够执行高度精确的估计。要注意的是,除了“TV观看时间”之外,要估计的项目可以是例如”汽车乘坐时间”或“社交网络服务(SNS)(诸如Facebook(注册商标))的登入时间”。
上述一系列处理可由硬件或软件执行。当上述一系列处理由软件执行时,构成该软件的程序被安装在计算机中。计算机包括被包括在专用硬件中的计算机、例如通用个人计算机(所述通用个人计算机被构造为通过安装各种程序来执行各种功能)的计算机等。
图8是示出根据程序执行上述一系列处理的计算机的硬件的示例性结构的方框图。
在计算机中,中央处理单元(CPU)101、只读存储器(ROM)102和随机存取存储器(RAM)103通过总线104彼此连接。
另外,总线104连接到输入/输出接口105。输入/输出接口105连接到输入单元106、输出单元107、存储单元108、通信单元109和驱动器110。
输入单元106包括键盘、鼠标和麦克风。输出单元107包括显示器和扬声器。存储单元108包括硬盘和非易失性存储器。通信单元109包括网络接口等。驱动器110驱动可移动介质111,诸如磁盘、光盘、磁光盘或半导体存储器。
在如上所述构造的计算机中,CPU 101通过输入/输出接口105和总线104将例如存储在存储单元108中的程序加载到RAM 103中,并且执行该程序。由此,执行上述一系列处理。
在计算机中,通过将可移动记录介质111安装到驱动器110,程序通过输入/输出接口105被安装在存储单元108中。另外,能够通过有线或无线传输介质(诸如,局域网、互联网或数字卫星广播)在通信单元109接收程序以被安装在存储单元108中。程序可被预先安装在ROM 102或存储单元108中。
要注意的是,由计算机执行的程序可以是用于按照已在本描述中描述的次序按时间系列执行处理的程序,或用于并行地或在必要时刻(例如,当调用时)执行处理的程序。
要注意的是,在本描述中,即使未按照已在这里描述的次序按时间系列执行已在流程图中描述的步骤,也可并行地或在必要时刻(例如,当调用时)执行所述步骤,以及按照时间系列执行所述步骤。
应该理解,在本描述中,系统代表多个组成元件(例如,装置、模块(部件))的组件,不管是否所有的组成元件位于同一壳体里面。因此,系统包括被容纳在不同壳体中并且通过网络彼此连接的多个设备和在一个壳体中容纳多个模块的一个设备。
本技术不应局限于上述实施例,并且可在不脱离本技术的范围和精神的情况下做出各种修改和变化。
例如,可采用上述多个实施例中的所有实施例或一部分实施例的组合。
例如,本技术可包括用于通过网络在多个设备之间共享一个功能的云计算结构。
已在上述流程图中描述的步骤能够由一个设备执行,并且进一步在多个设备之间共享。
另外,当一个步骤包括多个处理时,所述一个步骤的多个处理可由一个设备执行,并且进一步在多个设备之间共享。
要注意的是,本技术也可包括下面的结构。
(1)一种信息处理器,包括:
获取单元,被构造为获取目的时间系列数据和多个说明时间系列数据,目的时间系列数据是与要估计的目的变量对应的时间系列数据,所述多个说明时间系列数据是与用于说明目的变量的多个说明变量对应的时间系列数据;
学习单元,被构造为使用获取的目的时间系列数据和所述多个说明时间系列数据学习概率模型的参数;
选择单元,被构造为基于已通过学习获得的概率模型的参数,选择与由获取单元获取的说明时间系列数据对应的说明变量;和
估计单元,被构造为基于选择单元的选择结果使用已由获取单元获取的所述多个说明时间系列数据估计目的变量的值。
(2)如(1)所述的信息处理器,其中所述学习单元使用隐马尔可夫模型学习目的变量和所述多个说明变量之间的关系。
(3)如(2)所述的信息处理器,其中所述目的变量由具有与隐马尔可夫模型的隐状态一一对应的线性回归系数和所述说明变量的线性回归模型表示。
(4)如(3)所述的信息处理器,其中所述选择单元选择具有小于预定阈值的线性回归系数的说明变量,作为获取单元不获取时间系列数据的说明变量。
(5)一种信息处理器的信息处理方法,包括:
获取目的时间系列数据和多个说明时间系列数据,目的时间系列数据是与要估计的目的变量对应的时间系列数据,所述多个说明时间系列数据是与用于说明目的变量的多个说明变量对应的时间系列数据;
使用获取的目的时间系列数据和所述多个说明时间系列数据学习概率模型的参数;
基于已通过学习获得的概率模型的参数,选择与获取的说明时间系列数据对应的说明变量;以及
基于选择结果使用已获取的所述多个说明时间系列数据估计目的变量的值。
(6)一种程序,用于使计算机用作:
获取单元,被构造为获取目的时间系列数据和多个说明时间系列数据,目的时间系列数据是与要估计的目的变量对应的时间系列数据,所述多个说明时间系列数据是与用于说明目的变量的多个说明变量对应的时间系列数据;
学习单元,被构造为使用获取的目的时间系列数据和所述多个说明时间系列数据学习概率模型的参数;
选择单元,被构造为基于已通过学习获得的概率模型的参数,选择与由获取单元获取的说明时间系列数据对应的说明变量;和
估计单元,被构造为基于选择单元的选择结果使用已由获取单元获取的所述多个说明时间系列数据估计目的变量的值。
附图标记列表
1 信息处理器
11 功耗测量单元
12 功耗时间系列输入单元
13 日志获取单元
15 日志时间系列输入单元
16 时间系列历史存储单元
17 模型学习单元
18 功耗估计单元
19 估计功耗显示单元
21 模型参数更新单元
22 模型参数存储单元
23 日志选择单元

Claims (6)

1.一种信息处理器,包括:
获取单元,被构造为获取目的时间系列数据和多个说明时间系列数据,所述目的时间系列数据是与要估计的目的变量对应的时间系列数据,所述多个说明时间系列数据是与用于说明所述目的变量的多个说明变量对应的时间系列数据;
学习单元,被构造为使用获取的目的时间系列数据和所述多个说明时间系列数据来学习概率模型的参数;
选择单元,被构造为基于已通过所述学习获得的概率模型的参数,选择与要由获取单元获取的说明时间系列数据对应的说明变量;和
估计单元,被构造为基于选择单元的选择结果,使用已由获取单元获取的所述多个说明时间系列数据估计所述目的变量的值。
2.如权利要求1所述的信息处理器,其中所述学习单元使用隐马尔可夫模型学习所述目的变量和所述多个说明变量之间的关系。
3.如权利要求2所述的信息处理器,其中所述目的变量由具有与隐马尔可夫模型的隐状态一一对应的线性回归系数和所述说明变量的线性回归模型表示。
4.如权利要求3所述的信息处理器,其中所述选择单元选择具有小于预定阈值的线性回归系数的说明变量,作为获取单元不获取时间系列数据的说明变量。
5.一种信息处理器的信息处理方法,包括:
获取目的时间系列数据和多个说明时间系列数据,所述目的时间系列数据是与要估计的目的变量对应的时间系列数据,所述多个说明时间系列数据是与用于说明所述目的变量的多个说明变量对应的时间系列数据;
使用获取的目的时间系列数据和所述多个说明时间系列数据学习概率模型的参数;
基于已通过所述学习获得的概率模型的参数,选择与要获取的说明时间系列数据对应的说明变量;以及
基于选择结果使用已获取的所述多个说明时间系列数据估计目的变量的值。
6.一种程序,用于使计算机用作:
获取单元,被构造为获取目的时间系列数据和多个说明时间系列数据,所述目的时间系列数据是与要估计的目的变量对应的时间系列数据,所述多个说明时间系列数据是与用于说明所述目的变量的多个说明变量对应的时间系列数据;
学习单元,被构造为使用获取的目的时间系列数据和多个说明时间系列数据学习概率模型的参数;
选择单元,被构造为基于已通过所述学习获得的概率模型的参数,选择与要由获取单元获取的说明时间系列数据对应的说明变量;和
估计单元,被构造为基于选择单元的选择结果,使用已由获取单元获取的所述多个说明时间系列数据估计所述目的变量的值。
CN201380029697.9A 2012-06-13 2013-06-05 信息处理器、信息处理方法和程序 Pending CN104364805A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012133461 2012-06-13
JP2012-133461 2012-06-13
PCT/JP2013/065617 WO2013187295A1 (ja) 2012-06-13 2013-06-05 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
CN104364805A true CN104364805A (zh) 2015-02-18

Family

ID=49758121

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380029697.9A Pending CN104364805A (zh) 2012-06-13 2013-06-05 信息处理器、信息处理方法和程序

Country Status (4)

Country Link
US (1) US20150112891A1 (zh)
JP (1) JPWO2013187295A1 (zh)
CN (1) CN104364805A (zh)
WO (1) WO2013187295A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110462539A (zh) * 2017-03-29 2019-11-15 三菱重工业株式会社 信息处理装置、信息处理方法以及程序
CN112099464A (zh) * 2019-06-17 2020-12-18 现代自动车株式会社 用于车辆的以太网的通信方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6020880B2 (ja) * 2012-03-30 2016-11-02 ソニー株式会社 データ処理装置、データ処理方法、及び、プログラム
WO2015083393A1 (ja) * 2013-12-03 2015-06-11 株式会社東芝 機器状態推定装置、機器消費電力推定装置、およびプログラム
EP3211579A4 (en) * 2014-10-24 2018-03-14 Nec Corporation Priority order determination system, method and program for explanatory variable display
US20180225681A1 (en) * 2015-08-06 2018-08-09 Nec Corporation User information estimation system, user information estimation method, and user information estimation program
JP6658250B2 (ja) * 2016-04-20 2020-03-04 株式会社Ihi 異常診断方法、異常診断装置、及び異常診断プログラム
US11107016B2 (en) * 2016-08-18 2021-08-31 Virtual Power Systems, Inc. Augmented power control within a datacenter using predictive modeling
JP6616791B2 (ja) 2017-01-04 2019-12-04 株式会社東芝 情報処理装置、情報処理方法およびコンピュータプログラム
US11915159B1 (en) * 2017-05-01 2024-02-27 Pivotal Software, Inc. Parallelized and distributed Bayesian regression analysis
JP6847787B2 (ja) 2017-08-04 2021-03-24 株式会社東芝 情報処理装置、情報処理方法及びコンピュータプログラム
JP6835759B2 (ja) * 2018-02-21 2021-02-24 ヤフー株式会社 予測装置、予測方法および予測プログラム
WO2019181729A1 (ja) * 2018-03-20 2019-09-26 株式会社Gsユアサ 劣化推定装置、コンピュータプログラム及び劣化推定方法
JPWO2020230658A1 (zh) * 2019-05-13 2020-11-19
CA3081150A1 (en) * 2019-05-21 2020-11-21 Royal Bank Of Canada System and method for machine learning architecture with variational autoencoder pooling

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4312143B2 (ja) * 2004-10-29 2009-08-12 富士通株式会社 ルール発見プログラム、ルール発見方法およびルール発見装置
JP2007002673A (ja) * 2005-06-21 2007-01-11 Ishikawajima Harima Heavy Ind Co Ltd ガスタービン性能の分析予測方法
JP5017941B2 (ja) * 2006-06-27 2012-09-05 オムロン株式会社 モデル作成装置および識別装置
JP2009140454A (ja) * 2007-12-11 2009-06-25 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2010022533A (ja) 2008-07-17 2010-02-04 Asmo Co Ltd アームレスト装置
JP5598200B2 (ja) * 2010-09-16 2014-10-01 ソニー株式会社 データ処理装置、データ処理方法、およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110462539A (zh) * 2017-03-29 2019-11-15 三菱重工业株式会社 信息处理装置、信息处理方法以及程序
US11429693B2 (en) 2017-03-29 2022-08-30 Mitsubishi Heavy Industries, Ltd. Information processing device, information processing method, and program
CN112099464A (zh) * 2019-06-17 2020-12-18 现代自动车株式会社 用于车辆的以太网的通信方法
CN112099464B (zh) * 2019-06-17 2024-04-05 现代自动车株式会社 用于车辆的以太网的通信方法

Also Published As

Publication number Publication date
US20150112891A1 (en) 2015-04-23
WO2013187295A1 (ja) 2013-12-19
JPWO2013187295A1 (ja) 2016-02-04

Similar Documents

Publication Publication Date Title
CN104364805A (zh) 信息处理器、信息处理方法和程序
US11521221B2 (en) Predictive modeling with entity representations computed from neural network models simultaneously trained on multiple tasks
Hallak et al. Contextual markov decision processes
US20110125700A1 (en) User model processing device
CN110097193B (zh) 训练模型的方法及系统和预测序列数据的方法及系统
JP7279445B2 (ja) 予測方法、予測プログラムおよび情報処理装置
JP6718500B2 (ja) 生産システムにおける出力効率の最適化
US20110117537A1 (en) Usage estimation device
CN110020877B (zh) 点击率的预测方法、点击率的确定方法及服务器
JP2018071853A (ja) 学習装置、制御装置、学習方法、制御方法、学習プログラムおよび制御プログラム
JP6997483B2 (ja) 充電器を含む模擬電池制御システム及び模擬電池制御方法
US20130262032A1 (en) Information processing device, information processing method, and program
CN111783810A (zh) 用于确定用户的属性信息的方法和装置
Huang et al. Model diagnostic procedures for copula-based Markov chain models for statistical process control
Gunaratne et al. Exponentially weighted control charts to monitor multivariate process variability for high dimensions
CN105580043A (zh) 用于推荐系统的基于强度的建模
JP6950504B2 (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
JP2019032729A (ja) 演算時間算出方法、演算時間算出装置、演算時間算出プログラム及び演算時間算出システム
US20120054133A1 (en) Method of configuring a sensor-based detection device and a corresponding computer program and adaptive device
CN112131274B (zh) 时间序列异常点的检测方法、装置、设备及可读存储介质
CN102981461B (zh) 信息处理设备和方法、服务器设备和控制方法
CN114442697B (zh) 一种温度控制方法、设备、介质及产品
US20220343216A1 (en) Information processing apparatus and information processing method
CN112836381B (zh) 一种基于多源信息的船舶剩余寿命预测方法及系统
CN111159558B (zh) 一种推荐列表的生成方法、装置和电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150218