CN102298569A - 在线学习算法的并行化 - Google Patents

在线学习算法的并行化 Download PDF

Info

Publication number
CN102298569A
CN102298569A CN2011101847986A CN201110184798A CN102298569A CN 102298569 A CN102298569 A CN 102298569A CN 2011101847986 A CN2011101847986 A CN 2011101847986A CN 201110184798 A CN201110184798 A CN 201110184798A CN 102298569 A CN102298569 A CN 102298569A
Authority
CN
China
Prior art keywords
state
model
implemented method
computer implemented
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011101847986A
Other languages
English (en)
Other versions
CN102298569B (zh
Inventor
T·B·埃伦
O·伊萨科夫
陈伟柱
J·S·杜恩
T·I·博彻特
J·Q·坎德拉
T·K·H·格雷佩尔
R·赫布里希
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102298569A publication Critical patent/CN102298569A/zh
Application granted granted Critical
Publication of CN102298569B publication Critical patent/CN102298569B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明揭示了在线学习算法的并行化。提供了用于在在线学习算法的并行化中使用的动态批策略的方法、系统,和媒介。该动态批策略提供了以原始模型状态和经更新的模型状态之间的阈值级别差异为基础的、而非根据恒定或预定批大小的合并功能。该合并过程包括读取一批传入流数据,从合作处理器检索任何缺少的模型信任,并且在该批传入流数据上进行训练。重复各读取、检索和训练步骤,直到所测得的状态差异超过设定的阈值级别。根据各属性,为多个处理器中的每一个合并所测得的超过阈值级别的差异。合并的超过阈值级别的差异与原始部分模型状态组合以获得经更新的全局模型状态。

Description

在线学习算法的并行化
技术领域
本发明涉及在线学习技术,尤其涉及在线学习算法的并行化。
背景技术
在线学习算法是这样一类算法,其使用直到当前时刻的历史数据来作出决定。在线学习算法也被称为流算法。接着由每个机器应用增量式训练以一次学习一个实例。当新数据变得可用,算法不需要在全部数据上重新训练,因为它们继续增量地改善现有模型。在线算法最近在批算法上获得改善了的效率。
新的更大的规模问题极大地增加了数据的量。因此,单机器方案在在线算法的有效并行(并且仍保持准确性)方面不能够提供令人满意的性能。
发明内容
本发明的各实施例由所附权利要求书来定义。提供本发明的各实施例的高层次概览以便介绍将在以下具体实施方式一节中进一步描述的系统、方法和介质的概述。本概述既不旨在标识所要求保护的主题的关键特征或必要特征,也不旨在用于独立地帮助确定所要求保护的主题的范围。
本发明的各实施例包括在根据本发明的各实施例的在线学习算法的并行化中使用的动态批策略。该动态批策略提供了以原始模型状态和经更新的模型状态之间的阈值级别差异为基础的、而非根据恒定或预定批大小的合并功能。因此,随着节点的经更新的模型状态偏离原始模型状态,合并更频繁地发生。如果节点的状态不是显著地不同于原始状态,则所有节点与当前状态接近一致,并且合并是不必要的。
一训练过程包括读取一批传入流数据,从合作处理器检索任何缺少的模型信任,并且在该批传入流数据上进行学习。重复各读取、检索和学习步骤(包括更新局部贝叶斯参数),直到所测得的状态差异超过设定的阈值级别。向相应的多个处理器应用模型更新。处理器也可向另一处理器请求经更新的部分模型状态,其中作出请求的处理器将所请求的部分模型状态存储在其模型容器中。
本发明的其他实施例包括其上存储有指令的计算机可读机制,该指令在由计算设备执行时执行上述方法。
附图说明
以下将参考附图详细描述本发明的说明性实施例,附图通过引用结合于此,并且其中:
图1是示出根据本发明的各实施例使用的示例性计算机操作环境的框图;
图2是样本级策略的图示;
图3是批级策略的图示;
图4是微型批策略的图示;
图5是根据本发明的各实施例使用的并行化系统的图示;
图6是根据本发明的各实施例使用的并行化系统的流程图;
图7是根据本发明的各实施例使用的动态地并行地更新多个处理器的计算机实现的方法的流程图;以及
图8是在并行化学习系统中分配模型的计算机实现的方法的流程图。
具体实施方式
本发明的各实施例提供了用于动态地并行更新多个处理器的系统、方法和计算机可读存储介质。该具体实施方式和所附权利要求书满足适用的法定要求。
此处可使用术语“步骤”、“块”等来意味所采用的方法的不同动作,但是这些术语不应被解释为暗示任何特定次序,除非明确地描述了各单独步骤、框等的次序。同样,此处可使用术语“模块”等来意味所采用的系统的不同组件,但是这些术语不应被解释为暗示任何特定次序,除非明确地描述了各单独模块等的次序。
贯穿本发明的不同实施例的描述,使用若干缩写和简写符号来帮助理解关于相关联的系统、方法和计算机可读介质的特定概念。这些缩写和简写符号旨在帮助提供一种传达此处所表达的观念的容易方法,并且不意味着限制本发明的任何实施例的范围。
本发明的各实施例包括,但不限于,方法、系统以及具体化在一个或多个计算机可读介质上的计算机可执行指令集。计算机可读介质包括易失性和非易失性介质、可移动和不可移动介质、以及可由数据库和各种其它网络设备读取的介质。作为示例而非局限,计算机可读存储介质包括以用于存储信息的任何方法或技术实现的介质。存储的信息的示例包括计算机可使用的指令、数据结构、程序模块,及其他数据表示形式。介质示例包括,但不限于,信息传送介质、随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、闪存或其他存储器技术、紧致盘只读存储器(CD-ROM)、数字多功能盘(DVD)、全息介质或其他光盘存储、磁带盒、磁带、磁盘存储以及其他磁存储设备。这些介质示例可被配置成暂时地、临时地或永久地存储数据。计算机可读介质包括唯一地存在于一个处理系统上或分布在对该计算系统为本地或远程的多个互连的处理系统之间的协作或互连的计算机可读介质。
本发明的各实施例可以在计算机代码或机器可使用指令的一般上下文中描述,机器可使用指令包括由计算系统或其它一个或多个机器执行的诸如程序模块等的计算机可执行指令。一般而言,包括例程、程序、对象、组件、数据结构等的程序模块指的是可执行特定任务或实现特定数据类型的代码。此处所描述的各实施例可以使用各种系统配置来实现,包括手持式设备、消费电子产品、通用计算机、更专用计算设备等。此处所描述的各实施例还可以使用通过通信网络或因特网链接的远程处理设备来在分布式计算环境中实现。
在某些实施例中,描述了一种动态地并行地更新多个处理器的计算机实现的方法。模型状态根据划分方案被划分成部分模型。原始部分模型状态的本地副本被接收到多个处理器的每一个中。根据传入数据流的部分分布模型,在多个处理器之间划分所述传入数据流。多个处理器中的每一个根据属性来串行地处理经划分的传入流数据以达到多个当前部分模型状态。根据散度函数,为多个处理器中的每一个串行地确定原始部分模型状态与其相应的当前部分模型状态之间的差异。根据各属性,为多个处理器中的每一个合并所确定的超过阈值级别的差异。合并的超过阈值级别的差异与原始部分模型状态组合以获得经更新的全局模型状态。在另一实施例中,一个或多个计算机可读存储介质上包含有计算机可读指令,这些指令在由计算设备执行时执行上述动态地并行更新多个处理器的方法。
在某些实施例中,描述了一种在并行化学习系统中分配模型的计算机实现的方法。根据均匀分布散列函数的输出,将原始模型状态的多个分区分配给相应的多个节点。所分配的多个分区被加载到多个节点的每一个的相应的模型容器中。多个节点中的每一个根据经划分的经解析印象流来单独训练以获得多个经划分的当前模型状态。在根据多个节点的每一个的属性训练之后,合并所计算的经划分的原始模型状态和对应的经划分的当前模型状态之间的差异。合并的所计算的差异被组合到原始模型状态以获得经更新的模型状态。在另一实施例中,一个或多个计算机可读存储介质上包含有计算机可读指令,这些指令在由计算设备执行时执行上述在并行化学习系统中分配模型的方法。
在又一些实施例中,描述了一种动态地更新多个处理器的计算机实现的方法。根据均匀分布散列函数的输出,将原始模型状态的多个分区分配给相应的多个节点。所分配的多个经划分的原始模型状态被加载到多个节点的每一个中的相应的模型容器中。多个节点中的每一个根据属性来在相应的一批经划分的印象流上训练以获得多个分区当前模型状态。对多个节点的每一个,确定经划分的原始模型状态和相应的经划分的当前模型状态之间的差异。根据各属性,为多个节点中的每一个合并所确定的超过阈值级别的差异。合并的超过阈值级别的差异与经划分的原始模型状态进行组合以获得经更新的全局模型状态。在另一实施例中,一个或多个计算机可读存储介质上包含有计算机可读指令,这些指令在由计算设备执行时执行上述动态地更新多个处理器的方法。
在简要描述了此处的各实施例的概览后,以下描述一示例性计算设备。最初参考图1,示出了用于实现本发明的各实施例的示例性操作环境,并将其概括指定为计算设备100。计算设备100只是合适的计算系统的一个示例,并且不旨在对本发明的各实施例的使用范围或功能提出任何限制。也不应该将计算设备100解释为对所示出的任一组件或其组合有任何依赖性或要求。在一个实施例中,计算设备100是常规计算机(例如,个人计算机或膝上型计算机)。本发明的各实施例还适用于多个互连的计算设备,如计算设备100。
计算设备100包括直接或间接耦合以下设备的总线110:存储器112、一个或多个处理器114、一个或多个呈现组件116、输入/输出(I/O)端口118、输入/输出组件120、和说明性电源122。总线110表示一个或多个总线可以为何物(诸如地址总线、数据总线或其组合)。尽管为了清楚起见用线条示出了图1的各框,但是在现实中,各组件的划界并不是那样清楚,并且按比喻的说法,更精确而言这些线条将是灰色的和模糊的。例如,可以将诸如显示设备等的呈现组件116认为是I/O组件120。同样,处理器114具有存储器112。本领域的技术人员可以理解,这是本领域的特性,并且如上所述,图1的图示只是例示可结合本发明的一个或多个实施例来使用的示例性计算设备。诸如“工作站”、“服务器”、“膝上型计算机”、“手持式设备”等分类之间没有区别,它们全部都被认为是在图1的范围之内并且被称为“计算设备”或“计算系统”。
计算设备100可包括各种计算机可读介质。作为示例而非局限,计算机可读介质可包括RAM、ROM、EEPROM、闪存或其他存储器技术、CDROM、DVD或其他光学或全息介质、磁带盒、磁带、磁盘存储或其他磁存储设备、或可被配置成存储与此处所描述的各实施例相关的数据和/或执行的类似的有形介质。
存储器112包括易失性和/或非易失性存储器形式的计算机存储介质。存储器112可以是可移动的、不可移动的或其组合。示例性硬件设备包括固态存储器、硬盘驱动器、高速缓存、光盘驱动器等。计算设备100包括从诸如存储器112或I/O组件120等各种实体读取数据的一个或多个处理器114。呈现组件116向用户或其它设备呈现数据指示。示例性呈现组件116包括显示设备、扬声器设备、打印设备、振动设备等等。
I/O端口118将计算设备100逻辑上耦合至包括I/O组件120的其它设备,其中某些设备可以是内置的。说明性I/O组件120包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪、打印机、无线设备等等。
以上描述的与计算设备100有关的组件也可被包括在无线设备中。如此处所描述的无线设备指的是任何类型的无线电话、手持式设备、个人数字助理(PDA)、BlackBerry
Figure BSA00000530452200051
智能电话、数码相机、或可无线地通信的其他移动设备(除了膝上型计算机之外)。本领域的技术人员可以理解,无线设备也包括执行各种功能的处理器和计算机存储介质。此处所描述的各实施例适用于计算设备和无线设备两者。在各实施例中,计算设备也可以指运行其图像由无线设备中的照相机来捕捉的应用程序的设备。
上述计算系统被配置成供上文中概括描述并在下文中更详细描述的若干计算机实现的方法、系统和介质来使用。本发明的各实施例提供了在线学习算法的并行化的计算机实现的方法、系统和介质。在线学习算法的并行化将机器增量式训练的概念并行地应用于多个训练机器。每一训练机器处理独立于经划分的原始模型状态的、所分配的量的流数据,以形成经划分的当前模型状态。所有训练机器用组合的经划分的当前模型状态的各个结果来同步,以获得经更新的全局模型状态。
在线学习算法利用各种策略来处理某一固定数量的实例,并组合来自多个训练机器的结果。图2中示出了样本级策略。所处理的信息与原始模型状态的合并在每一实例之后发生。该策略将产生非常准确的结果,但是如果有大量信息需要处理则是低效的,因为通信和同步开销将非常大。图3中示出了批级策略。所处理的信息与原始模型状态的合并在处理了所有实例之后发生。该策略在有大量实例要处理的情况下将具有有限的准确度,但却是非常高效的,因为合并直到处理了所有信息之后才发生。图4示出了微型批策略。所处理的信息与原始模型状态的合并在每一组实例之后发生。微型批策略试图平衡样本级和批级策略。然而,微型批策略使用了预定的恒定大小的批,且因此在提供既高效又准确的结果方面也是有限的。
图5示出了供根据本发明的各实施例的在线学习算法的动态批策略使用的并行化系统。该动态批策略提供了以原始模型状态和当前模型状态之间的阈值级别差异为基础的、而非根据一组恒定或预定准则的合并功能。该并行化系统中的多个节点根据部分分布模型来划分。根据本发明的一个实施例,该部分分布模型利用均匀分布的散列函数。
为便于解释,图5仅示出了两个训练节点。然而,可并行使用若干节点并且这被认为是在本发明的范围之内。每一节点将原始模型状态的一个分区加载到其模型容器中。向第一节点510分配原始模型状态的一个分区,该分区被加载到第一节点510的模型容器中。同样,向第二节点520分配原始模型状态的一个不同分区,该不同分区被加载到第二节点520的模型容器中。向每一节点分配数据印象或传入数据流的一个经划分的批,其中数据印象或传入数据流根据均匀分布的散列函数来划分。用于原始模型状态的划分的均匀分布的散列函数可以不同于用于数据印象流的划分的均匀分布的散列函数。打开分配给第一节点510的该批经解析的印象流530。打开分配给第一节点520的该批经解析的印象流540。第一节点510和第二节点520根据属性550独立地在它们相应的所分配的那批印象上进行训练。来自第一节点510的属性550中的某一些可以与来自第二节点520的属性550中的某一些相同。
在第一节点510在一批印象530上训练之后,根据散度函数,计算每一属性550的经划分的原始模型状态与当前模型状态560的第一分区之间的差异。散度函数将在此处更详细地描述。当所计算的差异低于一设定的阈值级别时,假定对于该特定属性550的经划分的原始模型状态和经划分的当前模型状态560之间的差异是可忽略的,并且经划分的当前模型状态560基本上未从经划分的原始模型状态改变。此时,读取另一批经解析的印象流530,并且该新一批的训练在第一节点510上发生。然后对每一属性550计算经划分的原始模型状态和当前模型状态560的第二分区之间的差异。如果该计算的差异仍低于该设定的阈值级别,则重复该过程,直到经划分的原始模型状态和经划分的当前模型状态560之间的差异超过该设定的阈值级别。当经划分的原始模型状态和经划分的当前模型状态560之间的差异超过该设定的阈值级别时,则将第一节点510的所计算的状态改变应用于第一节点510的该分区。该相同的过程在第二节点520上独立运行,以获得每一属性550的经划分的当前模型状态570,直到第二节点520的经划分的原始模型状态和经划分的当前模型状态570之间的差异超过设定的阈值级别。将第二节点520的所计算的超过设定的阈值级别的状态改变应用于第二节点520的该分区。
根据每一属性550组合第一节点510和第二节点520的这些所计算的超过设定的阈值级别的状态差异,如合并增量580所例示的。从合并所计算的差异中得到经更新的全局状态590。删除每一节点的本地高速缓存数据,并且用新的经划分的局部模型状态来更新每一节点,该状态被加载到其相应的模型容器中。
图6是表示使用图5所示的并行化系统来动态地并行更新多个处理器的方法的流程图。该流程图将只针对一个节点来描述,但是如上所述,完整的并行化系统将包含至少两个节点并且可包含若干节点。在步骤610,将信息加载到节点中。该信息可包括分区号、并行化模型状态的位置、对该特定节点的经解析的印象的位置、以及用于该训练模型的批大小。在步骤615,将经划分的原始模型状态加载到节点中。训练迭代在步骤620开始。在步骤625,从数据印象流中加载该特定节点的一批经划分的印象。该节点将确定当前在其高速缓存中存在哪些必要的模型信任,以及其高速缓存中缺少且因此将需要从合作节点中检索哪些信任。然后在步骤630,从一个或多个合作节点检索缺少的信任。然后在步骤635,在该批修订的印象上运行训练。如上参考图5所述,节点根据属性在其相应的一批所分配的印象上训练,然后在判定640中测量经划分的原始模型状态和经划分的当前模型状态之间的状态差异以确定是否需要合并。如果所计算的差异低于设定的阈值级别,则不需要合并,并且从步骤625开始重复该过程,直到经划分的原始模型状态和经划分的当前模型状态之间的阈值级别差异超过该阈值级别。一旦测得了阈值级别差异,则需要合并。如果从合作节点检索了任何信任或者从主题节点检索了来自其他合作节点的任何信任,则在步骤645相应地发送模型更新消息。在步骤650,该节点根据所接收到的任何更新消息以及从合并中所计算的状态更新来更新其模型。在更新了节点并且达到了经更新的全局状态之后,则可在步骤655清除节点的高速缓存。经更新的全局状态现在变为新的原始全局状态,其可在节点之间划分以再次在步骤620开始该过程。一个或多个计算机可读存储介质上包含有计算机可读指令,这些指令在由计算设备执行时执行上述动态地并行更新多个处理器的方法。
现在将参考图7的流程图来描述动态地并行更新多个处理器的计算机实现的方法。该方法包括在本发明的一个实施例中在并行化学习系统中分配模型。在步骤710,当多个处理器将在共享任务上并行工作时,使用部分分布模型来在多个处理器之间划分模型状态。根据本发明的一个实施例,该部分分布模型利用均匀分布的散列函数。在步骤720,还在多个处理器之间划分原始模型状态,其中每一处理器接收该原始模型状态的其本地副本。根据本发明的一个实施例,该经划分的原始模型状态可利用均匀分布的散列函数。在步骤730,多个处理器将处理在线流数据或印象,这些数据或印象根据其部分分布模型在处理器之间划分。每一处理器具有一模型容器,其包含各自的部分原始模型状态、本地高速缓存以及其相应的部分当前模型状态。在步骤740,每一处理器串行地处理传入部分流数据。该独立处理得到对于每一处理器的部分当前模型状态。然后在步骤750,根据散度函数对每一处理器计算部分原始模型状态和部分当前模型状态之间的差异。散度函数可包括平方绝对值散度、增量Kullback-Leibler(KL)散度或后验KL散度中的一个。增量KL散度比较自从上一次训练更新以来预测事件的概率受到训练多少影响。换言之,预测是在每一训练实例之前和之后作出的,并且计算两次预测之间的KL散度。增量KL散度测量从一数据点之前的预测到该数据点之后的预测的散度。后验KL散度测量从部分原始模型状态到部分当前模型状态的权重分布之间的差异。在步骤760,对每一属性,将所计算的超过设定的阈值级别的差异与来自其他处理器的所计算的超过该设定的阈值级别的差异合并。在本发明的一具体实施例中,该合并步骤包括读取一批传入流数据、从其他合作处理器检索任何缺少的模型信任、以及在该批传入流数据上训练。重复各读取、检索和训练步骤,直到所测得的状态差异超过该设定的阈值级别。向相应的多个处理器应用模型更新。处理器也可向另一处理器请求经更新的部分模型状态,其中作出请求的处理器将所请求的部分模型状态存储在其模型容器中。然后在步骤770,将合并的差异与原始模型状态组合以获得经更新的全局状态。该经更新的全局状态变为新的原始全局状态,其中该新的原始全局状态如上所述地在处理器之间划分,然后输入到相应处理器中。一个或多个计算机可读存储介质上包含有计算机可读指令,这些指令在由计算设备执行时执行上述动态地并行更新多个处理器的方法。
现在将参考图8的流程图来描述动态地更新多个处理器的计算机实现的方法。在步骤810,将原始模型状态的多个分区分配给相应的多个节点。分区可以根据均匀分布的散列函数的输出来分配。然后在步骤820,将所分配的分区加载到每一节点相应的模型容器中。第一模型容器中的某些所分配的分区可以与第二模型容器中某些所分配的分区部分重叠。原始模型状态分区也可以根据来自第二节点的请求从第一节点的模型容器加载到第二节点的本地高速缓存中。然后在步骤830,根据其经划分的经解析的印象流来训练各单独节点以获得每一节点的经划分的当前模型状态。诸如唯一印象标识符、特征值或两个或更多串接值等一组元组可被加入到经划分的当前模型状态。如上所述,根据所存在的各单独属性来计算每一部分原始模型状态和经更新的部分模型状态之间的差异。如果该状态差异超过一设定的阈值级别,则在步骤840,对每一单独的属性合并所有节点的状态差异。这些合并的差异包括一批动态的超过阈值级别的所计算的差异。该动态批基于一个或多个可变条件,如印象计数,或基于改变的信任的计数。然后在步骤850,将合并的差异与原始模型状态组合以获得经更新的全局模型状态。经更新的全局模型状态然后变为用于计算第二动态批的新的初始模型状态。一个或多个计算机可读存储介质上包含有计算机可读指令,这些指令在由计算设备执行时执行上述动态地更新多个处理器的方法。
包括以上针对动态地并行更新多个处理器的计算机实现的方法以及在并行化学习系统中分配模型的计算机实现的方法所描述的部分或全部特征的组合的计算机实现的方法被认为是在本发明的范围之内。其上包含有当由计算设备执行时执行上述部分或全部组合方法步骤的计算机可读指令的一个或多个计算机可读存储介质也被认为是在本发明的范围之内。
所描绘的各组件以及未示出的实施例的许多不同的安排都是可能的,而不背离本发明的精神和范围。已带着说明而非限制的意图描述了本发明的各实施例。
可以理解,某些特征和子组合是有用的,并且可以在不参考其他特征和子组合的情况下使用,它们都在权利要求书的范围内。并非各种图形中所列出的所有步骤都需要按所描述的特定的顺序执行。

Claims (14)

1.一种使用具有处理器、存储器和数据存储子系统的计算系统来动态地并行地更新多个处理器的计算机实现的方法,所述计算机实现的方法包括:
根据部分分布方案将模型状态划分为多个部分模型(710);
将部分原始模型状态的本地副本接收到多个处理器的每一个中(720);
根据传入流数据的部分分布模型,在多个处理器之间划分所述传入流数据(730);
由多个处理器中的每一个根据属性来串行地处理经划分的传入流数据,以达到多个部分当前模型状态(740);
根据散度函数,为多个处理器中的每一个串行地确定部分原始模型状态与相应的部分当前模型状态之间的差异(750);
根据各属性,合并多个处理器中的每一个所确定的超过阈值级别的差异(760);以及
将所合并的超过阈值级别的差异与部分原始模型状态进行组合,以获得经更新的全局模型状态(770)。
2.如权利要求1所述的计算机实现的方法,其特征在于,根据部分分布模型划分多个处理器(710)利用均匀分布散列函数。
3.如权利要求1所述的计算机实现的方法,其特征在于,所述多个处理器的每一个包括模型容器,所述模型容器包含其相应的部分原始模型状态、本地高速缓存,其相应的部分当前模型状态(560)。
4.如权利要求3所述的计算机实现的方法,其特征在于,还包括:从另一处理器请求经更新的部分模型状态(570),并将其存储在请求处理器的模型容器中。
5.如权利要求1所述的计算机实现的方法,其特征在于,还包括:
根据所述部分分布模型,划分经更新的全局状态(590);以及
将经划分的经更新的全局状态(590)输入到相应的多个处理器中。
6.如权利要求1所述的计算机实现的方法,其特征在于,所述合并包括:
读取一批传入流数据(625);
从合作处理器中检索任何缺少的模型信任(630);
在该批传入流数据上进行训练(635);
重复所述读取、检索和训练,直到需要合并(640);
将经更新的全局状态应用到相应的多个处理器中(650);以及
复位每个本地高速缓存以同步所述多个处理器的每一个(655)。
7.一种使用具有处理器、存储器和数据存储子系统的计算系统来在并行化学习系统中分配模型的计算机实现的方法,所述计算机实现的方法包括:
根据均匀分布散列函数的输出,将原始模型状态的多个分区分配给相应的多个节点(810);
将所分配的多个分区加载到所述多个节点的每一个的相应的多个模型容器中(820);
根据经划分的经解析印象流单独训练多个节点中的每一个,以获得多个经划分的当前模型状态(830);
在根据所述多个节点的每一个的属性进行训练之后,合并所计算的经划分的原始模型状态和对应的经划分的当前模型状态之间的差异(840);以及
经合并的所计算的差异被组合到经划分的原始模型状态以获得经更新的全局模型状态(850)。
8.如权利要求7所述的计算机实现的方法,其特征在于,还包括:根据来自所述多个节点中的第二节点(520)的请求,将原始模型状态分区从多个节点中的第一节点(510)的模型容器加载到所述第二节点的本地高速缓存中。
9.如权利要求7所述的计算机实现的方法,其特征在于,合并所计算的差异(580)利用增量Kullback-Leibler散度,为所述多个节点的每一个测量从一数据点之前的预测到该数据点之后的预测的散度。
10.如权利要求7所述的计算机实现的方法,其特征在于,合并所计算的差异(580)利用后验Kullback-Leibler散度,为所述多个节点的每一个测量从经划分的原始模型状态(530)到经划分的当前模型状态(560)的权重分布之间的差异。
11.如权利要求7所述的计算机实现的方法,其特征在于,经合并的所计算的差异(580)包括超过阈值水平的第一动态批的所计算的差异。
12.如权利要求11所述的计算机实现的方法,其特征在于,经更新的全局模型状态(590)包括用于计算第二动态批的初始全局模型状态。
13.如权利要求7所述的计算机实现的方法,其特征在于,第一模型容器中的所分配的多个分区(560)的某些与第二模型容器中所分配的多个分区(570)的某些重叠。
14.如权利要求7所述的计算机实现的方法,其特征在于,一组元组可被加入到所述多个经划分的当前模型状态(560)的每一个。
CN201110184798.6A 2010-06-24 2011-06-23 并行化的在线学习方法 Active CN102298569B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/822,918 US8904149B2 (en) 2010-06-24 2010-06-24 Parallelization of online learning algorithms
US12/822,918 2010-06-24

Publications (2)

Publication Number Publication Date
CN102298569A true CN102298569A (zh) 2011-12-28
CN102298569B CN102298569B (zh) 2016-03-16

Family

ID=45353678

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110184798.6A Active CN102298569B (zh) 2010-06-24 2011-06-23 并行化的在线学习方法

Country Status (2)

Country Link
US (1) US8904149B2 (zh)
CN (1) CN102298569B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105827822A (zh) * 2016-01-29 2016-08-03 维沃移动通信有限公司 一种文件名显示处理方法及移动终端
CN106156810A (zh) * 2015-04-26 2016-11-23 阿里巴巴集团控股有限公司 通用机器学习算法模型训练方法、系统和计算节点
CN106471527A (zh) * 2014-08-26 2017-03-01 谷歌公司 从全局模型进行本地化学习
WO2019153878A1 (zh) * 2018-02-06 2019-08-15 华为技术有限公司 一种基于机器学习的数据处理方法以及相关设备
CN110298201A (zh) * 2018-03-21 2019-10-01 恩智浦美国有限公司 运行时间安全保护系统和方法
WO2020015734A1 (zh) * 2018-07-20 2020-01-23 杭州海康威视数字技术股份有限公司 更新参数的方法和装置
CN111149117A (zh) * 2017-09-28 2020-05-12 甲骨文国际公司 机器学习和深度学习模型的基于梯度的自动调整

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120109710A1 (en) * 2010-10-27 2012-05-03 Fair Isaac Corporation Retail time to event scorecards incorporating clickstream data
US9141354B2 (en) * 2012-04-23 2015-09-22 Ecole polytechnique fédérale de Lausanne (EPFL) Advantageous state merging during symbolic analysis
US9384302B2 (en) 2013-06-17 2016-07-05 International Business Machines Corporation Generating differences for tuple attributes
EP3129922A4 (en) 2014-04-08 2017-07-05 Microsoft Technology Licensing, LLC Deep learning using alternating direction method of multipliers
US11100420B2 (en) 2014-06-30 2021-08-24 Amazon Technologies, Inc. Input processing for machine learning
US10339465B2 (en) 2014-06-30 2019-07-02 Amazon Technologies, Inc. Optimized decision tree based models
US10540606B2 (en) 2014-06-30 2020-01-21 Amazon Technologies, Inc. Consistent filtering of machine learning data
US10102480B2 (en) 2014-06-30 2018-10-16 Amazon Technologies, Inc. Machine learning service
US10169715B2 (en) * 2014-06-30 2019-01-01 Amazon Technologies, Inc. Feature processing tradeoff management
US10963810B2 (en) 2014-06-30 2021-03-30 Amazon Technologies, Inc. Efficient duplicate detection for machine learning data sets
US10452992B2 (en) 2014-06-30 2019-10-22 Amazon Technologies, Inc. Interactive interfaces for machine learning model evaluations
US10318882B2 (en) 2014-09-11 2019-06-11 Amazon Technologies, Inc. Optimized training of linear machine learning models
US9886670B2 (en) 2014-06-30 2018-02-06 Amazon Technologies, Inc. Feature processing recipes for machine learning
US9672474B2 (en) * 2014-06-30 2017-06-06 Amazon Technologies, Inc. Concurrent binning of machine learning data
US11182691B1 (en) 2014-08-14 2021-11-23 Amazon Technologies, Inc. Category-based sampling of machine learning data
US10229357B2 (en) * 2015-09-11 2019-03-12 Facebook, Inc. High-capacity machine learning system
US10257275B1 (en) 2015-10-26 2019-04-09 Amazon Technologies, Inc. Tuning software execution environments using Bayesian models
US10949889B2 (en) * 2016-01-04 2021-03-16 Exelate Media Ltd. Methods and apparatus for managing models for classification of online users
US10380503B2 (en) * 2016-04-08 2019-08-13 Here Global B.V. Distributed online learning for privacy-preserving personal predictive models
DE202017007517U1 (de) * 2016-08-11 2022-05-03 Twitter, Inc. Aggregatmerkmale für maschinelles Lernen
US11144616B2 (en) * 2017-02-22 2021-10-12 Cisco Technology, Inc. Training distributed machine learning with selective data transfers
WO2018213788A1 (en) * 2017-05-18 2018-11-22 Aiqudo, Inc. Systems and methods for crowdsourced actions and commands
US11043206B2 (en) 2017-05-18 2021-06-22 Aiqudo, Inc. Systems and methods for crowdsourced actions and commands
US11056105B2 (en) 2017-05-18 2021-07-06 Aiqudo, Inc Talk back from actions in applications
US11340925B2 (en) 2017-05-18 2022-05-24 Peloton Interactive Inc. Action recipes for a crowdsourced digital assistant system
US11995539B2 (en) * 2017-06-09 2024-05-28 Samsung Electronics Co., Ltd. Electronic apparatus and method for re-learning trained model
US10850753B2 (en) * 2018-01-23 2020-12-01 Arup Ventures Limited Wireless train management system
WO2019172956A1 (en) 2018-03-06 2019-09-12 Tazi AI Systems, Inc. Continuously learning, stable and robust online machine learning system
US11270227B2 (en) * 2018-10-01 2022-03-08 Nxp B.V. Method for managing a machine learning model
US11693706B2 (en) 2018-11-21 2023-07-04 Samsung Electronics Co., Ltd. System and method for dynamic scheduling of distributed deep learning training jobs
US11010637B2 (en) 2019-01-03 2021-05-18 International Business Machines Corporation Generative adversarial network employed for decentralized and confidential AI training
US10789510B2 (en) 2019-01-11 2020-09-29 Google Llc Dynamic minibatch sizes
US11308514B2 (en) 2019-08-26 2022-04-19 The Nielsen Company (Us), Llc Methods and apparatus to estimate census level impressions and unique audience sizes across demographics
US11663043B2 (en) * 2019-12-02 2023-05-30 Meta Platforms, Inc. High bandwidth memory system with dynamically programmable distribution scheme
US20230138987A1 (en) * 2021-11-04 2023-05-04 International Business Machines Corporation Efficient machine learning model inference

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030037050A1 (en) * 2002-08-30 2003-02-20 Emergency 24, Inc. System and method for predicting additional search results of a computerized database search user based on an initial search query
CN101095132A (zh) * 2004-12-31 2007-12-26 英特尔公司 用于贝叶斯网络结构学习的数据分区和临界区减小

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9214514D0 (en) 1992-07-08 1992-08-19 Massachusetts Inst Technology Information processing
US7631008B2 (en) 2005-11-16 2009-12-08 Yahoo! Inc. System and method for generating functions to predict the clickability of advertisements
US20090043593A1 (en) 2007-08-08 2009-02-12 Microsoft Corporation Event Prediction
US9165254B2 (en) * 2008-01-14 2015-10-20 Aptima, Inc. Method and system to predict the likelihood of topics

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030037050A1 (en) * 2002-08-30 2003-02-20 Emergency 24, Inc. System and method for predicting additional search results of a computerized database search user based on an initial search query
CN101095132A (zh) * 2004-12-31 2007-12-26 英特尔公司 用于贝叶斯网络结构学习的数据分区和临界区减小

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GONZALEZ,LOW,GUESTRIN,O"HALLARON: "《Proceedings UAI"09 Proceedings of the Twenty-Fifth Conference on Uncertainty in Artificial Intelligence》", 31 December 2009 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106471527A (zh) * 2014-08-26 2017-03-01 谷歌公司 从全局模型进行本地化学习
CN106471527B (zh) * 2014-08-26 2019-05-03 谷歌有限责任公司 从全局模型进行本地化学习
US10824958B2 (en) 2014-08-26 2020-11-03 Google Llc Localized learning from a global model
US11551153B2 (en) 2014-08-26 2023-01-10 Google Llc Localized learning from a global model
CN106156810A (zh) * 2015-04-26 2016-11-23 阿里巴巴集团控股有限公司 通用机器学习算法模型训练方法、系统和计算节点
CN106156810B (zh) * 2015-04-26 2019-12-03 阿里巴巴集团控股有限公司 通用机器学习算法模型训练方法、系统和计算节点
CN105827822A (zh) * 2016-01-29 2016-08-03 维沃移动通信有限公司 一种文件名显示处理方法及移动终端
CN111149117A (zh) * 2017-09-28 2020-05-12 甲骨文国际公司 机器学习和深度学习模型的基于梯度的自动调整
CN111149117B (zh) * 2017-09-28 2023-09-19 甲骨文国际公司 机器学习和深度学习模型的基于梯度的自动调整
WO2019153878A1 (zh) * 2018-02-06 2019-08-15 华为技术有限公司 一种基于机器学习的数据处理方法以及相关设备
CN110298201A (zh) * 2018-03-21 2019-10-01 恩智浦美国有限公司 运行时间安全保护系统和方法
WO2020015734A1 (zh) * 2018-07-20 2020-01-23 杭州海康威视数字技术股份有限公司 更新参数的方法和装置

Also Published As

Publication number Publication date
CN102298569B (zh) 2016-03-16
US8904149B2 (en) 2014-12-02
US20110320767A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
CN102298569A (zh) 在线学习算法的并行化
CN105719001B (zh) 使用散列的神经网络中的大规模分类
US8943011B2 (en) Methods and systems for using map-reduce for large-scale analysis of graph-based data
KR102225822B1 (ko) 인공지능 수행을 위한 학습 데이터 생성장치 및 방법
KR102310187B1 (ko) 복수의 엣지와 클라우드를 포함하는 분산 컴퓨팅 시스템 및 이의 적응적 지능 활용을 위한 분석 모델 제공 방법
CN111448550A (zh) 网络可访问的机器学习模型训练和托管系统
CN111079942A (zh) 执行机器学习的分布式系统及其方法
CN103095804A (zh) 集群存储系统中的负载平衡
CN103731498B (zh) 一种基于副本选择的大数据实时查询系统负载均衡方法
CN105575389A (zh) 模型训练方法、系统和装置
CN103412861A (zh) 基于知识的解析
CN105095414A (zh) 用于预测网络搜索量的方法和装置
Li et al. GRASP for connected dominating set problems
US9501509B2 (en) Throwaway spatial index structure for dynamic point data
US20130138686A1 (en) Device and method for arranging query
Ahipaşaoğlu Fast algorithms for the minimum volume estimator
CN114610475A (zh) 一种智能资源编排模型的训练方法
CN115373827A (zh) 基于区块链的负载均衡调度方法及装置、区块链系统
US20230222385A1 (en) Evaluation method, evaluation apparatus, and non-transitory computer-readable recording medium storing evaluation program
CN112541556A (zh) 模型构建优化方法、设备、介质及计算机程序产品
US20200183586A1 (en) Apparatus and method for maintaining data on block-based distributed data storage system
CN106933882B (zh) 一种大数据增量计算方法和装置
US20130046467A1 (en) Method and apparatus for determining traveling route
Wong et al. State-space decomposition for reinforcement learning
US20230401829A1 (en) Training machine learning models based on unlabeled data

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150727

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150727

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C14 Grant of patent or utility model
GR01 Patent grant