CN111126613A - 用于深度学习的方法、设备和计算机程序产品 - Google Patents
用于深度学习的方法、设备和计算机程序产品 Download PDFInfo
- Publication number
- CN111126613A CN111126613A CN201811286353.7A CN201811286353A CN111126613A CN 111126613 A CN111126613 A CN 111126613A CN 201811286353 A CN201811286353 A CN 201811286353A CN 111126613 A CN111126613 A CN 111126613A
- Authority
- CN
- China
- Prior art keywords
- parameter
- server
- deep learning
- determining
- transmission status
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 238000004590 computer program Methods 0.000 title claims abstract description 18
- 230000005540 biological transmission Effects 0.000 claims abstract description 71
- 238000013136 deep learning model Methods 0.000 claims abstract description 64
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims description 97
- 230000004044 response Effects 0.000 claims 12
- 238000010586 diagram Methods 0.000 description 35
- 238000003860 storage Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 239000008186 active pharmaceutical agent Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/043—Distributed expert systems; Blackboards
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本公开的实施例涉及用于深度学习的方法、设备和计算机程序产品。根据本公开的示例性实现,在客户端处获取与被分配给服务器的训练数据集的深度学习模型有关的参数;确定参数的传输状态,传输状态指示参数是否已被传输至服务器;以及基于传输状态,确定要向服务器发送的与参数相关联的信息,以更新深度学习模型。由此,可以提高深度学习的性能,并且降低深度学习的网络负载。
Description
技术领域
本公开的各实现方式涉及深度学习,更具体地,涉及对深度学习模型的参数进行管理的方法、设备和计算机程序产品。
背景技术
诸如深度学习的应用驱动了针对诸如图形处理单元(GPU)或现场可编程门阵列(FPGA)的加速器/专用处理资源的大量需求。例如,当前存在如下问题:数据量、速度、种类日益增长;可扩展计算无法满足需求,而专用处理资源的使用日益普及;数据传输与计算同等重要;需要对引入数据中心的昂贵的专用处理资源的使用进行优化;以及需要连接到云。因此,在诸如医疗、制造、物联网、金融、石油、零售、咨询等领域中,对专用处理资源的使用进行优化对于用户是至关重要的。
发明内容
本公开的实施例提供了用于深度学习的方法、设备和计算机程序产品。
在本公开的第一方面,提供了一种用于深度学习的方法。该方法包括:在客户端处获取与被分配给服务器的训练数据集的深度学习模型有关的参数;确定参数的传输状态,传输状态指示参数是否已被传输至服务器;以及基于传输状态,确定要向服务器发送的与参数相关联的信息,以更新深度学习模型。
在本公开的第二方面,提供了一种用于深度学习的方法。该方法包括:在服务器处从客户端接收与第一参数相关联的信息,第一参数与被分配给服务器的训练数据集的深度学习模型有关;基于信息,确确定第一参数;以及使用所述第一参数更新深度学习模型。
在本公开的第三方面,提供了一种用于深度学习的设备。该设备包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得设备执行动作,该动作包括:在客户端处获取与被分配给服务器的训练数据集的深度学习模型有关的参数;确定参数的传输状态,传输状态指示参数是否已被传输至服务器;以及基于传输状态,确定要向服务器发送的与参数相关联的信息,以更新深度学习模型。
在本公开的第四方面,提供了一种用于深度学习的设备。该设备包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得设备执行动作,该动作包括:在服务器处从客户端接收与第一参数相关联的信息,第一参数与被分配给服务器的训练数据集的深度学习模型有关;基于信息,确确定第一参数;以及使用所述第一参数更新深度学习模型。
在本公开的第五方面,提供了一种计算机程序产品。计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行时使机器实现根据本公开的第一方面所描述的方法的任意步骤。
在本公开的第六方面,提供了一种计算机程序产品。计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令在被执行时使机器实现根据本公开的第二方面所描述的方法的任意步骤。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了本公开的多个实施例能够在其中实现的示例环境的示意图;
图2示出了根据本公开的一些实施例的交换深度学习模型的参数的示意图;
图3示出了传统的传输深度学习模型的参数的示意图;
图4示出了根据本公开的一些实施例的传输深度学习模型的参数的示意图;
图5示出了根据本公开的一些实施例的在客户端处用于传输深度学习模型的参数的方法的示例的流程图;
图6示出了根据本公开的一些实施例的在服务器处用于传输深度学习模型的参数的方法的示例的流程图;
图7示出了在理想情况下传统的传输深度学习模型的参数的网络流量的示意图;
图8示出了在实际情况下传统的传输深度学习模型的参数的网络流量的示意图;
图9示出了根据本公开的一些实施例的传输深度学习模型的参数的网络流量的示意图;
图10示出了针对多种深度学习模型的参数传输的网络流量的示意图;
图11示出了根据本公开的一些实施例的针对多种深度学习模型的参数传输的网络流量的示意图;以及
图12示出了可以用来实施本公开内容的实施例的示例设备的示意性框图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。示例环境100可以是管理专用处理资源的环境,例如GPU即服务(GPU-as-a-Service)环境。如图1所示,示例环境100可以包括客户端1101和客户端1102(本文中统称为“客户端110”)、服务器1201和服务器1202(本文中统称为“服务器120”)、网络130以及控制器140。
在某些实施例中,客户端1101和客户端1102分别可以包括应用1121和应用1122(本文中统称为“应用112”)、客户端应用编程接口(API)1141和客户端API 1142(本文中统称为“客户端API 114”)、以及客户端库1161和客户端库1162(本文中统称为“客户端库116”)。注意,虽然在图1中仅示出了两个客户端(即客户端1101和客户端1102),但是示例环境100可以包括任何数目的客户端。
在某些实施例中,服务器1201和服务器1202分别可以包括服务器API 1221和服务器API 1222(本文中统称为“服务器API 122”)、以及专用处理资源1241和专用处理资源1242(本文中统称为“专用处理资源124”)。注意,虽然在图1中仅示出了两个服务器(即服务器1201和服务器1202),但是示例环境100可以包括任何数目的服务器。
此外,专用处理资源1241和专用处理资源1242分别可以包括专用处理资源12411和专用处理资源12412、以及专用处理资源12421和专用处理资源12422。注意,虽然在图1中示出专用处理资源124仅包括两个专用处理资源,但是专用处理资源124可以包括任何数目的专用处理资源。
网络130可以是诸如使用传输控制协议(TCP)或远程直接数据存取(RDMA)的网络。然而,网络130的示例不限于此,而是可以支持数据通信的任何有线或无线网络。此外,控制器140可以管理服务器120上的专用处理资源124,例如向应用112分配专用处理资源124。
在某些实施例中,应用112(例如涉及深度学习的应用)可以通过函数调用来请求专用处理资源124。客户端库116可以通过提供与服务器API 122相同的客户端API 114来拦截应用112的函数调用。在拦截函数调用之后,客户端库116可以经由网络130向服务器120发送函数调用。服务器120根据控制器140的调度,使用被分配给应用112的专用处理资源124执行针对函数调用的计算,并且将计算的结果返回客户端库116。然后,客户端库116可以从服务器120接收计算的结果。由于这个过程对于应用112是透明的,因此对于应用112表现得好像在客户端110上存在虚拟专用处理资源一样。
例如,这样的示例环境100具有如下特征:
·远程专用处理资源访问
-透明地消耗远程专用处理资源;
-基于队列模型和各种网络结构。
·专用处理资源共享
-N:1模型,即多个应用消耗同一专用处理资源;
-细粒度的控制和管理。
·专用处理资源链接
-1:N模型,即多个专用处理资源链接为一个整体以服务于一个应用;
-适合于应用的动态专用处理资源数目。
·智能调度
-专用处理资源池化、发现和提供;
-细粒度专用处理资源监测和跟踪;
-可扩展智能调度算法:异构专用处理资源和网络权衡。
在这样的示例环境100中,可以对深度学习模型进行训练。当前深度学习模型变得日益庞大,例如ResNet模型从50层发展为200层,Inception模型从处理32×32图像大小,发展为处理224×224图像大小,直至发展为处理512×512图像大小。可见,深度学习模型需要越来越多的资源和工作负载。这导致难以管理和联合专用处理资源以训练当前的庞大深度学习模型。
为此,可以聚合多个物理服务器上的专用处理资源以服务于单个应用。这可以使得跨多个物理服务器构建单个全局专用处理资源池,以显著简化分布式专用处理资源的管理并且提高专用处理资源的利用率。
然而,在依赖于专用处理资源的各种应用中,诸如在深度学习模型训练中,由于深度学习模型训练是计算密集型的,因此通常在多个专用处理资源上训练深度学习模型以加速计算,这也被称为分布式深度学习模型训练。
在具有多个相同专用处理资源的传统服务器上,模型训练通常通过将作业(即训练数据集)均匀地划分到每个专用处理资源来实现,并且不同的作业划分将频繁地彼此交换参数以进行同步。
在示例环境100中,可以使用从一个或多个远程服务器120提供的许多虚拟专用处理资源来训练深度学习模型。然而,与使用多个本地物理专用处理资源来训练深度学习模型不同,虚拟专用处理资源将消耗网络带宽以交换参数,这会降低分布式虚拟专用处理资源性能。
进一步地,在使用多个专用处理资源来训练深度学习模型时,参数服务器可以用于专用处理资源间的参数交换。参数可以被存储在中央处理单元(CPU)上(所谓的CPU上的参数服务器)或GPU上(所谓的GPU上的参数服务器)上。CPU上的参数服务器更常见地被所有框架支持和使用,而GPU上的参数服务器需要诸如Nvlink的总线及其通信协议来确保GPU对等体可以有效地交换参数。
图2示出了根据本公开的一些实施例的交换深度学习模型的参数的示意图200。如图2所示,以客户端250处的CPU上的参数服务器为例,根据分布式深度学习模型训练的常见过程,针对CPU上的参数服务器的数据路径可以被归纳为迭代的三个步骤:
(1)每个专用处理资源向存储在客户端250处的CPU上的参数服务器发送其最新计算的本地参数,例如深度学习模型的权重的变化(△WI,0…△WI,N-1,其中I表示迭代的次数,N表示专用处理资源的编号)。如图2所示,专用处理资源210-240分别向存储在客户端250处的CPU上的参数服务器发送权重△WI,0-△WI,3。
(2)存储在客户端250处的CPU上的参数服务器接收本地参数并且基于其计算整合参数。例如,参数服务器可以基于如下等式计算整合参数:
WI+1=WI–λ·∑N△WI,N (1),
其中I表示迭代的次数,N表示专用处理资源的编号。通常,权重的变化△WI,0…△WI,N-1是不同的,而整合权重WI+1总是相同的。
(3)存储在客户端250处的CPU上的参数服务器将整合权重WI+1发送回每个专用处理资源210-240。
可见,在客户端和远程专用处理资源之间接收和发送参数将引入网络开销。图3示出了传统的传输深度学习模型的参数的示意图300。如图3所示,假设存在两个服务器310和320,每个服务器分别具有四个专用处理资源312-318和322-328。在这种情况下,在一次迭代中,深度学习模型训练将在客户端330和专用处理资源312-318和322-328之间交换16个参数(如实线箭头和虚线箭头所示)。由于单个参数所占据的空间较大(例如,90MB),因此参数交换将消耗大量网络带宽。
为了解决上述问题,由于整合权重总是相同的,因此可以优化参数交换过程(具体地,优化整合权重WI+1的传输)以减少网络开销,从而提高深度学习的性能。以下将结合图4-6描述优化参数交换的过程。图4示出了根据本公开的一些实施例的传输深度学习模型的参数的示意图400。如图4所示,客户端430可以包括组合器432和434。组合器432可以对应于服务器410,并且可以将要被发送到服务器410的参数组合。类似地,组合器434可以对应于服务器420,并且可以将要被发送到服务器420的参数组合。
相应地,服务器410可以包括广播器419。广播器419可以接收来自组合器432的参数,并且将所接收的参数发送到专用处理资源412-418。类似地,服务器420可以包括广播器429。广播器429可以接收来自组合器434的参数,并且将所接收的参数发送到专用处理资源422-428。
注意,虽然在图4中仅示出了两个服务器以及与其对应的两个广播器和两个组合器,但是示例环境100可以包括任何数目的服务器以及与其对应的广播器和组合器。此外,虽然图4示出了分别对应于服务器410和420的两个组合器432和434,但是组合器432和434可以被实现为单个组合器,使得由单个组合器实现对要被传输到服务器的参数的组合与发送。
由此,与图3中所示的交换16个参数的实现相比,在图4所示的实现中,由于合并了整合权重WI+1的传输,因此显著降低了网络开销。
进一步地,为了确保参数的组合的正确性和一致性,一方面,组合器432和434可以保持服务器标识符、与参数有关的标识符以及摘要。具体地,在某些实施例中,服务器标识符可以用于标识服务器。每个服务器都有唯一的服务器标识符。例如,服务器标识符可以指示服务器的命名空间以将其本地列表项与来自其他服务器的项区分。
与参数有关的标识符可以标识参数在存储器中的地址。在某些实施例中,与参数有关的标识符可以包括偏移和大小,其中偏移指示参数在客户端430的存储器中的前导地址,而大小是参数所占据的以字节为单位的存储器的大小。可见,参数所位于的存储器中的位置从偏移指示的前导地址开始直至由前导地址加上存储器的大小所确定的结束地址结束。此外,摘要可以用于标识和加密参数的内容。客户端430可以经由诸如MD5算法和SHA-1算法的摘要生成算法来生成参数的摘要。
另一方面,广播器419和429可以保持与参数有关的标识符以及参数本身。在某些实施例中,广播器419和429所保持的与参数有关的标识符分别与组合器432和434所保持的与参数有关的标识符相同。此外,广播器419和429还可以保持参数本身,使得在参数不发生变化的情况下,广播器419和429本身就可以向专用处理资源412-418和422-428提供参数。
图5示出了根据本公开的一些实施例的在客户端430处用于传输深度学习模型的参数的方法的示例的流程图500。例如,方法500可以在如图4所示的客户端430或者其他适当的设备处被执行。此外,方法500还可以包括未示出的附加步骤和/或可以省略所示出的步骤,本公开的范围在此方面不受限制。
在510,在客户端430处获取与被分配给服务器的训练数据集的深度学习模型有关的参数。在某些实施例中,可以在客户端430处获取与训练数据集的深度学习模型有关的权重,该权重基于来自服务器(例如,服务器410)的权重变化而被确定。例如,权重可以是整合权重WI+1,并且权重变化可以是△WI,0…△WI,N-1。此外,在某些实施例中,参数所针对的服务器可以基于服务器标识符被确定。
在520,客户端430确定参数的传输状态,该传输状态指示参数是否已被传输至服务器(例如,服务器410)。在某些实施例中,客户端430可以生成用于标识参数的摘要(在本文中被称为“第一摘要”)。如上所述,客户端430可以经由诸如MD5算法和SHA-1算法的摘要生成算法来生成第一摘要。然后,客户端430可以获取与参数相关联的先前确定的摘要(在本文中被称为“第二摘要”)。如上所述,第二摘要可以是由客户端430保持的摘要。
客户端430可以比较第一摘要和第二摘要。在第一摘要与第二摘要匹配的情况下,客户端430可以确定传输状态指示参数已被传输。相反,在第一摘要与第二摘要不匹配的情况下,客户端430可以确定传输状态指示参数未被传输。
在530,客户端430基于传输状态,确定要向服务器410发送的与参数相关联的信息,以更新深度学习模型。在传输状态指示参数已被传输的情况下,客户端430可以向服务器410发送与参数有关的标识符和传输状态。例如,客户端430可以向服务器(例如,服务器410)发送与参数有关的偏移、大小和表示传输状态的一个标记位。相反,在传输状态指示参数未被传输的情况下,客户端430可以向服务器发送标识符、传输状态和参数。例如,客户端430可以向服务器(例如,服务器410)发送与参数有关的偏移、大小、表示传输状态的一个标记位、以及参数本身。
以此方式,在从客户端430向服务器(例如,服务器410)发送参数之前,客户端430可以首先通过比较参数的当前摘要与先前摘要来检查参数是否之前已经被发送到服务器并且未改变。如果参数改变,则客户端430将参数、与参数有关的标识符以及传输状态一起发送到服务器410。如果参数没有改变,则客户端430仅发送与参数有关的标识符和传输状态,以通知服务器410重用由该标识符标识的参数。因此,可以节省传输参数所需的网络流量,提高深度学习的效率和性能。
此外,客户端430可以删除第二摘要,并且存储第一摘要。由此,在参数变化的情况下,客户端430可以用当前摘要替换先前摘要,以使得客户端430保持的摘要保持更新。
在上文中结合图5描述了在客户端430处执行的动作,在下文中将结合图6描述在服务器410或服务器420处执行的动作。图6示出了根据本公开的一些实施例的在服务器处用于传输深度学习模型的参数的方法的示例的流程图600。虽然在下文中将方法600描述为在服务器410处被执行,但是方法600可以在如图4所示的服务器420或者其他适当的设备处被执行。此外,方法600还可以包括未示出的附加步骤和/或可以省略所示出的步骤,本公开的范围在此方面不受限制。
在610,在服务器410处从客户端430接收与参数(在本文中被称为“第一参数”)相关联的信息。第一参数与被分配给服务器410的训练数据集的深度学习模型有关。在620,服务器410基于该信息,确定第一参数。
在某些实施例中,服务器410可以在基于该信息而确定第一参数已被传输的情况下,从该信息获取与第一参数有关的标识符。此外,服务器410还可以基于标识符,获取与第一参数有关的预先存储的参数(在本文中被称为“第二参数”)作为第一参数。例如,在所接收的信息包括偏移、大小和传输状态的标记位,并且传输状态的标记位指示第一参数已被传输的情况下,服务器410可以基于该传输状态的标记位确定第一参数已被传输,并且获取偏移和大小。然后,服务器410可以使用偏移和大小作为关键字,来获取第二参数,并且将所获取第二参数作为第一参数。
此外,服务器410可以在基于该信息而确定第一参数未被传输的情况下,从该信息获取与第一参数有关的标识符和第一参数。例如,在所接收的信息包括偏移、大小、传输状态的标记位和第一参数,并且传输状态的标记位指示第一参数未被传输的情况下,服务器410可以基于该传输状态的标记位确定第一参数未被传输,并且获取偏移、大小和第一参数。进一步地,在第一参数未被传输的情况下,服务器410还可以使用偏移和大小作为关键字,来删除预先存储的第二参数,以及将第一参数存储在服务器中。备选地,在第一参数未被传输,并且不存在预先存储的第二参数的情况下,服务器410可以使用偏移和大小作为关键字,来将第一参数存储在服务器410中。
在630,服务器410使用第一参数更新深度学习模型。例如,如上所述,第一参数可以是深度学习模型的整合权重WI+1。服务器410可以将第一参数提供给专用处理资源412-418,使得专用处理资源412-418基于更新的整合权重WI+1来继续迭代深度学习模型,直到深度学习模型收敛。
以此方式,服务器410简单且高效地存储和更新与深度学习模型有关的参数,并且将其提供给专用处理资源以进行进一步的计算。
图7-图9对传统的传输深度学习模型的参数的网络流量和根据本公开的一些实施例的传输深度学习模型的参数的网络流量进行了比较。图7示出了在理想情况下传统的传输深度学习模型的参数的网络流量的示意图700。图示710-780分别表示专用处理资源412-418和422-428的网络开销。在理想情况下,由于网络带宽是无限的,因此即使传统方法将消耗大量网络流量,也不会破坏性能。
图8示出了在实际情况下传统的传输深度学习模型的参数的网络流量的示意图800。与图7类似,图示810-880分别表示专用处理资源412-418和422-428的网络开销。然而,在实际情况下,由于网络带宽有限,因此传统方法将容易导致网络冲突。
图9示出了根据本公开的一些实施例的传输深度学习模型的参数的网络流量的示意图900。与图7类似,图示910-980分别表示专用处理资源412-418和422-428的网络开销。如图9所示,在对参数传输进行优化之后,传输参数所消耗的网络开销显著减少。此外,在低带宽网络下,优化后的参数传输还将在减少网络使用的同时,显著提高迭代性能。
图10和图11针对多种深度学习模型比较了传统参数传输与根据本公开的一些实施例的参数传输。图10示出了针对多种深度学习模型的传统的参数传输的网络流量的示意图1000,作为对照,图11示出了根据本公开的一些实施例的针对多种深度学习模型的参数传输的网络流量的示意图1100。从图10和图11的对照可见,其中阴影部分为减少的网络流量,根据本公开的一些实施例的深度学习模型的参数的网络流量显著降低。
图12示出了可以用来实施本公开内容的实施例的示例设备1200的示意性框图。例如,如图4所示的客户端430或服务器410或420可以由设备1200来实施。如图所示,设备1200包括中央处理单元(CPU)1210,其可以根据存储在只读存储器(ROM)1220中的计算机程序指令或者从存储单元1280加载到随机访问存储器(RAM)1230中的计算机程序指令,来执行各种适当的动作和处理。在RAM1230中,还可存储设备1200操作所需的各种程序和数据。CPU1210、ROM 1220以及RAM 1230通过总线1240彼此相连。输入/输出(I/O)接口1250也连接至总线1240。
设备1200中的多个部件连接至I/O接口1250,包括:输入单元1260,例如键盘、鼠标等;输出单元1270,例如各种类型的显示器、扬声器等;存储单元1280,例如磁盘、光盘等;以及通信单元1290,例如网卡、调制解调器、无线通信收发机等。通信单元1290允许设备1200通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法500和600,可由处理单元1210执行。例如,在一些实施例中,方法500和600可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1280。在一些实施例中,计算机程序的部分或者全部可以经由ROM1220和/或通信单元1290而被载入和/或安装到设备1200上。当计算机程序被加载到RAM1230并由CPU 1210执行时,可以执行上文描述的方法500和600的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Java、Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (20)
1.一种用于深度学习的方法,包括:
在客户端处获取与被分配给服务器的训练数据集的深度学习模型有关的参数;
确定所述参数的传输状态,所述传输状态指示所述参数是否已被传输至所述服务器;以及
基于所述传输状态,确定要向所述服务器发送的与所述参数相关联的信息,以更新所述深度学习模型。
2.根据权利要求1所述的方法,其中获取所述参数包括:
获取与所述训练数据集的深度学习模型有关的权重,所述权重基于来自所述服务器的权重变化而被确定。
3.根据权利要求1所述的方法,其中确定所述传输状态包括:
生成用于标识所述参数的第一摘要;
获取与所述参数相关联的先前确定的第二摘要;
响应于所述第一摘要与所述第二摘要匹配,确定所述传输状态指示所述参数已被传输;以及
响应于所述第一摘要与所述第二摘要不匹配,确定所述传输状态指示所述参数未被传输。
4.根据权利要求1所述的方法,其中确定所述信息包括:
响应于所述传输状态指示所述参数已被传输,向所述服务器发送与所述参数有关的标识符和所述传输状态;以及
响应于所述传输状态指示所述参数未被传输,向所述服务器发送所述标识符、所述传输状态和所述参数。
5.根据权利要求1所述的方法,还包括
从所述客户端删除所述第二摘要;以及
将所述第一摘要存储在所述客户端中。
6.一种用于深度学习的方法,包括:
在服务器处从客户端接收与第一参数相关联的信息,所述第一参数与被分配给所述服务器的训练数据集的深度学习模型有关;
基于所述信息,确定所述第一参数;以及
使用所述第一参数更新所述深度学习模型。
7.根据权利要求6所述的方法,其中确定所述第一参数包括:
响应于基于所述信息而确定所述第一参数已被传输,从所述信息获取与所述第一参数有关的标识符;以及
基于所述标识符,获取与所述第一参数有关的预先存储的第二参数作为所述第一参数。
8.根据权利要求6所述的方法,其中确定所述第一参数包括:
响应于基于所述信息而确定所述第一参数未被传输,从所述信息获取与所述第一参数有关的标识符和所述第一参数。
9.根据权利要求6所述的方法,还包括:
从所述服务器删除所述第二参数;以及
将所述第一参数存储在所述服务器中。
10.一种用于深度学习的设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
在客户端处获取与被分配给服务器的训练数据集的深度学习模型有关的参数;
确定所述参数的传输状态,所述传输状态指示所述参数是否已被传输至所述服务器;以及
基于所述传输状态,确定要向所述服务器发送的与所述参数相关联的信息,以更新所述深度学习模型。
11.根据权利要求10所述的设备,其中获取所述参数包括:
获取与所述训练数据集的深度学习模型有关的权重,所述权重基于来自所述服务器的权重变化而被确定。
12.根据权利要求10所述的设备,其中确定所述传输状态包括:
生成用于标识所述参数的第一摘要;
获取与所述参数相关联的先前确定的第二摘要;
响应于所述第一摘要与所述第二摘要匹配,确定所述传输状态指示所述参数已被传输;以及
响应于所述第一摘要与所述第二摘要不匹配,确定所述传输状态指示所述参数未被传输。
13.根据权利要求10所述的设备,其中确定所述信息包括:
响应于所述传输状态指示所述参数已被传输,向所述服务器发送与所述参数有关的标识符和所述传输状态;以及
响应于所述传输状态指示所述参数未被传输,向所述服务器发送所述标识符、所述传输状态和所述参数。
14.根据权利要求10所述的设备,所述动作还包括
从所述客户端删除所述第二摘要;以及
将所述第一摘要存储在所述客户端中。
15.一种用于深度学习的设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
在服务器处从客户端接收与第一参数相关联的信息,所述第一参数与被分配给所述服务器的训练数据集的深度学习模型有关;
基于所述信息,确定所述第一参数;以及
使用所述第一参数更新所述深度学习模型。
16.根据权利要求15所述的设备,其中确定所述第一参数包括:
响应于基于所述信息而确定所述第一参数已被传输,从所述信息获取与所述第一参数有关的标识符;以及
基于所述标识符,获取与所述第一参数有关的预先存储的第二参数作为所述第一参数。
17.根据权利要求15所述的设备,其中确定所述第一参数包括:
响应于基于所述信息而确定所述第一参数未被传输,从所述信息获取与所述第一参数有关的标识符和所述第一参数。
18.根据权利要求15所述的设备,所述动作还包括:
从所述服务器删除所述第二参数;以及
将所述第一参数存储在所述服务器中。
19.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求1至6任一项所述的方法的步骤。
20.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求7至9任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811286353.7A CN111126613A (zh) | 2018-10-31 | 2018-10-31 | 用于深度学习的方法、设备和计算机程序产品 |
US16/428,417 US11651221B2 (en) | 2018-10-31 | 2019-05-31 | Method, device, and computer program product for deep learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811286353.7A CN111126613A (zh) | 2018-10-31 | 2018-10-31 | 用于深度学习的方法、设备和计算机程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111126613A true CN111126613A (zh) | 2020-05-08 |
Family
ID=70327018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811286353.7A Pending CN111126613A (zh) | 2018-10-31 | 2018-10-31 | 用于深度学习的方法、设备和计算机程序产品 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11651221B2 (zh) |
CN (1) | CN111126613A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222121A (zh) * | 2021-05-31 | 2021-08-06 | 杭州海康威视数字技术股份有限公司 | 一种数据处理方法、装置及设备 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11824732B2 (en) * | 2018-12-28 | 2023-11-21 | Intel Corporation | Techniques for artificial intelligence capabilities at a network switch |
US20220210140A1 (en) * | 2020-12-30 | 2022-06-30 | Atb Financial | Systems and methods for federated learning on blockchain |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140297591A1 (en) * | 2013-03-30 | 2014-10-02 | International Business Machines Corporation | Providing efficient data replication for a transaction processing server |
US20170140020A1 (en) * | 2015-11-17 | 2017-05-18 | International Business Machines Corporation | Record property synchronization in a network computing system |
EP3188086A1 (en) * | 2015-12-30 | 2017-07-05 | Facebook, Inc. | Identifying entities using a deep-learning model |
US20180089587A1 (en) * | 2016-09-26 | 2018-03-29 | Google Inc. | Systems and Methods for Communication Efficient Distributed Mean Estimation |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9218573B1 (en) * | 2012-05-22 | 2015-12-22 | Google Inc. | Training a model using parameter server shards |
US20150324690A1 (en) * | 2014-05-08 | 2015-11-12 | Microsoft Corporation | Deep Learning Training System |
WO2016061283A1 (en) * | 2014-10-14 | 2016-04-21 | Skytree, Inc. | Configurable machine learning method selection and parameter optimization system and method |
US20200050936A1 (en) * | 2018-08-10 | 2020-02-13 | Nvidia Corporation | Automatic dataset creation using software tags |
-
2018
- 2018-10-31 CN CN201811286353.7A patent/CN111126613A/zh active Pending
-
2019
- 2019-05-31 US US16/428,417 patent/US11651221B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140297591A1 (en) * | 2013-03-30 | 2014-10-02 | International Business Machines Corporation | Providing efficient data replication for a transaction processing server |
US20170140020A1 (en) * | 2015-11-17 | 2017-05-18 | International Business Machines Corporation | Record property synchronization in a network computing system |
EP3188086A1 (en) * | 2015-12-30 | 2017-07-05 | Facebook, Inc. | Identifying entities using a deep-learning model |
US20180089587A1 (en) * | 2016-09-26 | 2018-03-29 | Google Inc. | Systems and Methods for Communication Efficient Distributed Mean Estimation |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222121A (zh) * | 2021-05-31 | 2021-08-06 | 杭州海康威视数字技术股份有限公司 | 一种数据处理方法、装置及设备 |
CN113222121B (zh) * | 2021-05-31 | 2023-08-29 | 杭州海康威视数字技术股份有限公司 | 一种数据处理方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
US11651221B2 (en) | 2023-05-16 |
US20200134508A1 (en) | 2020-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3210134B1 (en) | Composite partition functions | |
CN110392025B (zh) | 管理分布式系统的方法、设备和计算机可读介质 | |
CN110392084B (zh) | 在分布式系统中管理地址的方法、设备和计算机程序产品 | |
CN109729040B (zh) | 协议的选择的方法、设备以及计算机可读介质 | |
CN104919423A (zh) | 对等软件更新 | |
US10917460B2 (en) | Distributed load-balancing for software defined networks | |
US9830333B1 (en) | Deterministic data replication with conflict resolution | |
CN111126613A (zh) | 用于深度学习的方法、设备和计算机程序产品 | |
CN110058937B (zh) | 用于调度专用处理资源的方法、设备和介质 | |
US20230409921A1 (en) | Multi-node distributed training method and apparatus, device and readable medium | |
US20200319922A1 (en) | Method, electronic device and computer program product for processing task | |
CN110609656B (zh) | 存储管理方法、电子设备和计算机程序产品 | |
EP3798860A1 (en) | Generation and use of a dynamic bloom filter | |
US20190129807A1 (en) | Method and device for managing a virtual machine | |
CN114924745A (zh) | 深度学习编译器的运行方法、装置及电子设备 | |
US20190324817A1 (en) | Method, apparatus, and computer program product for optimization in distributed system | |
CN113067860B (zh) | 用于同步信息的方法、装置、设备、介质和产品 | |
CN115442129A (zh) | 一种管理集群访问权限的方法、装置和系统 | |
US10430488B2 (en) | Managing systems hosted at data centers | |
CN110661857B (zh) | 一种数据同步方法和装置 | |
CN112988738B (zh) | 用于区块链的数据分片方法和装置 | |
CN114020469A (zh) | 基于边缘节点的多任务学习方法、装置、介质与设备 | |
CN113568561A (zh) | 用于信息处理的方法、电子设备和计算机存储介质 | |
US20140059538A1 (en) | Virtual machine state tracking using object based storage | |
US20240106889A1 (en) | Data resource storage method and apparatus, data resource query method and apparatus, and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200508 |