CN105005911A - 深度神经网络的运算系统及运算方法 - Google Patents

深度神经网络的运算系统及运算方法 Download PDF

Info

Publication number
CN105005911A
CN105005911A CN201510364386.9A CN201510364386A CN105005911A CN 105005911 A CN105005911 A CN 105005911A CN 201510364386 A CN201510364386 A CN 201510364386A CN 105005911 A CN105005911 A CN 105005911A
Authority
CN
China
Prior art keywords
parameter server
computation model
compute gradient
computation
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510364386.9A
Other languages
English (en)
Other versions
CN105005911B (zh
Inventor
李毅
邹永强
金涬
郭志懋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Tencent Computer Systems Co Ltd
Original Assignee
Shenzhen Tencent Computer Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Tencent Computer Systems Co Ltd filed Critical Shenzhen Tencent Computer Systems Co Ltd
Priority to CN201510364386.9A priority Critical patent/CN105005911B/zh
Publication of CN105005911A publication Critical patent/CN105005911A/zh
Application granted granted Critical
Publication of CN105005911B publication Critical patent/CN105005911B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供一种深度神经网络的运算系统,其包括主服务器、多个中心参数服务器以及多个计算模块;其中计算模块包括本地参数服务器以及多个计算单元。本发明还提供一种用于深度神经网络的运算系统的运算方法,本发明的深度神经网络的运算系统及运算方法通过设置本地参数服务器,提高了运算系统的计算效率,降低了运算系统的网络通信开销。

Description

深度神经网络的运算系统及运算方法
技术领域
本发明涉及运算结构领域,特别是涉及一种深度神经网络的运算系统及运算方法。
背景技术
目前,业内进行广告投放时,广泛使用了基于广告点击率预估的方法对广告进行排序。具体方法为,首先通过深度神经网络预估候选广告的点击率,即广告点击率预估值(pCTR,predicted click-through rate),然后基于pCTR计算广告的质量度(Quality),最后将广告按照出价(Bid)*Quality逆序排列并展现,出价越高且质量度越高的广告排序越靠前。在排序时遵循普遍二级价格拍卖(GSP,Generalized SecondPrice Auction)机制,该机制可以最大化搜索引擎的收益,达到GSP均衡。因此一个较好的深度神经网络的运算系统可以较为快速以及较为准确的获取广告点击率预估值。
如图1所示,图1为现有的深度神经网络的运算系统的结构示意图。该深度神经网络的运算系统10包括主服务器101、多个中心参数服务器102以及多个计算单元103。其中主服务器101负责训练任务的下发以及调度。多个中心参数服务器102具有计算模型的不同分片,用于通过网络将计算模型传输给相应的计算单元103、接收计算单元103上报的计算梯度,并将该计算梯度与相应的计算模型进行合并操作。多个计算单元103从中心参数服务器102获取最近的计算模型,分批处理计算模型的训练计算过程,并将计算出来的计算梯度上报至相应的中心参数服务器102。
上述运算系统10进行计算模型的参数训练时,将耗费大量的时间以及通信能力在计算模型的拉取、计算梯度的接收以及计算模型与计算梯度的合并操作 上,这样导致网络通信的开销巨大,且对中心参数服务器102的要求较高。
发明内容
本发明实施例提供一种计算效率较高且网络通信开销较小的深度神经网络的运算系统及运算方法;以解决现有的深度神经网络的运算系统及运算方法的计算效率较低以及网络通信开销较大的技术问题。
本发明实施例提供一种深度神经网络的运算系统,其包括:
主服务器,用于将训练任务的下发至计算模块以及中心参数服务器的逻辑控制;
多个中心参数服务器,用于根据所述计算模块的传输请求,将计算模型传输至相应的计算模块;以及接收所述计算模块上报的计算梯度,并根据所述计算梯度对相应的所述计算模型进行更新操作;以及
多个所述计算模块,包括:
本地参数服务器,用于按计算周期,从所述中心参数服务器下载相应的所述计算模型,并将所述计算模型分发至各个计算单元;以及按所述计算周期,接收所述计算单元上报的计算梯度,并对所述计算梯度进行累加,以将累加后的计算梯度上传至所述中心参数服务器;以及
多个所述计算单元,用于根据所述训练任务生成相应的所述传输请求;根据所述计算模型进行训练计算,以得到相应计算梯度;以及将所述计算梯度上报至所述本地参数服务器。
本发明实施例还提供一种用于深度神经网络的运算系统的运算方法,其中所述运算系统包括主服务器、多个中心参数服务器以及多个计算模块;每个所述计算模块包括本地参数服务器以及多个计算单元;其中所述运算方法包括:
所述主服务器将训练任务的下发至所述计算模块,所述计算模块根据所述训练任务生成传输请求;
所述中心参数服务器根据所述传输请求,将计算模型传输至相应的所述计算模块;
所述计算模块的所述本地参数服务器按计算周期,从所述中心参数服务器下载所述计算模型,并将所述计算模型分发至各个所述计算单元;
所述计算模块的所述计算单元根据所述计算模型进行训练计算,以得到相应的计算梯度,并将所述计算梯度上报至所述本地参数服务器;
所述本地参数服务器按所述计算周期,接收所述计算单元上报的计算梯度,并对所述计算梯度进行累加,以得到累加后的计算梯度;以及
所述中心参数服务器接收所述累加后的计算梯度,并根据所述累加后的计算梯度对相应的所述计算模型进行更新操作。
相较于现有技术的深度神经网络的运算系统及运算方法,本发明的深度神经网络的运算系统及运算方法通过设置本地参数服务器,提高了运算系统的计算效率,降低了运算系统的网络通信开销;解决了现有的深度神经网络的运算系统及运算方法的计算效率较低以及网络通信开销较大的技术问题。
附图说明
图1为现有的深度神经网络的运算系统的结构示意图。
图2为本发明的深度神经网络的运算系统的优选实施例的结构示意图;
图3为本发明的深度神经网络的运算系统的优选实施例的本地参数服务器的结构示意图;
图4为本发明的用于深度神经网络的运算系统的运算方法的优选实施例的流程图;
图5为本发明的深度神经网络的运算系统及运算方法中的计算模型的存储示意图;
图6为本发明的深度神经网络的运算系统及运算方法中的计算模型的分发示意图;
图7为本发明的深度神经网络的运算系统及运算方法中的计算梯度的累加示意图;
图8为本发明的深度神经网络的运算系统及运算方法中的计算模型的更新示意图;
图9为本发明的深度神经网络的运算系统所在的电子设备的工作环境结构示意图。
具体实施方式
请参照图式,其中相同的组件符号代表相同的组件,本发明的原理是以实施在一适当的运算环境中来举例说明。以下的说明是基于所例示的本发明具体实施例,其不应被视为限制本发明未在此详述的其它具体实施例。
在以下的说明中,本发明的具体实施例将参考由一部或多部计算机所执行之作业的步骤及符号来说明,除非另有述明。因此,其将可了解到这些步骤及操作,其中有数次提到为由计算机执行,包括了由代表了以一结构化型式中的数据之电子信号的计算机处理单元所操纵。此操纵转换该数据或将其维持在该计算机之内存系统中的位置处,其可重新配置或另外以本领域技术人员所熟知的方式来改变该计算机之运作。该数据所维持的数据结构为该内存之实体位置,其具有由该数据格式所定义的特定特性。但是,本发明原理以上述文字来说明,其并不代表为一种限制,本领域技术人员将可了解到以下所述的多种步骤及操作亦可实施在硬件当中。
本发明的深度神经网络的运算系统可使用具有计算能力的电子设备进行实施,该电子设备包括但不限于个人计算机、服务器计算机、手持式或膝上型设备、移动设备(比如移动电话、个人数字助理(PDA)、媒体播放器等等)、多处理器系统、消费型电子设备、小型计算机、大型计算机、包括上述任意系统或设备的分布式计算环境,等等。本发明的深度神经网络的运算系统通过设置本地参数服务器,提高了运算系统的计算效率,降低了运算系统的网络通信开销。
请参照图2,图2为本发明的深度神经网络的运算系统的优选实施例的结构示意图。本优选实施例的深度神经网络的运算系统20包括主服务器201、多个中心参数服务器202以及多个计算模块205。
主服务器201用于将训练任务的下发至计算模块205以及中心参数服务器202的逻辑控制;中心参数服务器202用于根据计算模块205的传输请求,将计算模型传输至相应的计算模块205;以及接收计算模块205上报的计算梯度,并根据计算梯度对相应的计算模型进行更新操作。
计算模块205包括本地参数服务器203以及多个计算单元204。本地参数服务器203用于按计算周期,从中心参数服务器202下载相应的计算模型,并将计算模型分发至各个计算单元204;以及按计算周期,接收计算单元204上报的计算梯度,并对计算梯度进行累加,以将累加后的计算梯度上传至中心参数服务器202。计算单元204用于根据训练任务生成相应的传输请求;根据计算模型进行训练计算,以得到相应计算梯度;以及将计算梯度上报至本地参数服务器203。同一本地参数服务器203对应多个计算单元204,上述多个计算单元204根据计算模型进行并行训练计算。
本优选实施例的计算模型分片存储在中心参数服务器202上,本地参数服务器203可按计算周期,从所有的中心参数服务器202下载全部的计算模型。这里的计算周期可为深度神经网络的一个训练周期或多个训练周期。
请参照图3,图3为本发明的深度神经网络的运算系统的优选实施例的本地参数服务器的结构示意图。本优选实施例的本地参数服务器203还包括计算梯度存储单元2031以及计算模型存储单元2032,计算梯度存储单元2031用于存储计算梯度,计算模型存储单元2032用于存储从中心参数服务器202下载的计算模型。
在每个计算周期开始时,本地参数服务器203从中心参数服务器202下载相应的计算模型,并将计算模型分发至各个计算单元204;此外将计算梯度存储单元2031清零,以便相应的计算单元204上报的计算梯度在计算梯度存储单 元2031中进行累加。在每个计算周期结束时,本地参数服务器203将累加后的计算梯度上传至相应的中心参数服务器202。
优选的,为了保证计算单元204获取的计算模型的准确性,本地参数服务器203将计算模型分发至各个计算单元204时,计算模型存储单元2032设置为只读状态。
本优选实施例的深度神经网络的运算系统20使用时,首先将计算模型分片存储在多个中心参数服务器202上;为了保证中心参数服务器的工作效率,计算模型平均分片存储在多个中心参数服务器202上,即每个中心参数服务器202上的计算模型的存储量基本相等。
随后主服务器201将深度神经网络的训练任务下发至计算模块205的各个计算单元204;计算单元204根据训练任务生成的传输请求并发送至中心参数服务器202;然后相应的中心参数服务器202根据接收到的传输请求将计算模型传输至相应的计算模块。
计算模块的本地参数服务器203按照计算周期从所有的中心参数服务器202上下载全部的计算模型;具体为:在计算周期开始时,本地参数服务器203从中心参数服务器202上下载相应的计算模型,并将下载的计算模型存储在计算模型存储单元2032。然后将接收到的计算模型分发至各个计算单元204,此时本地参数服务器203的计算模型存储单元2032设置为只读状态,以避免计算单元204的读取操作修改了计算模型。同时本地参数服务器203将计算梯度存储单元2031清零,以便将相应的计算单元204上报的计算梯度在计算梯度存储单元2031中进行累加。
随后计算单元204根据计算模型进行训练计算,以得到相应的计算梯度,并将计算梯度上报至本地参数服务器203进行累加。优选的,同一本地参数服务器203对应的多个计算单元204,根据计算模型进行并行训练计算。
在计算周期结束时,本地参数服务器203将累加的计算梯度上传至相应的中心参数服务器202。
中心参数服务器202接收计算模块上传的累加的计算梯度,并根据计算梯度对相应的计算模型进行更新操作。
这样即完成了本优选实施例的深度神经网络的运算系统20的运算过程。
本优选实施例的深度神经网络的运算系统通过设置本地参数服务器,本地参数服务器进行计算模型的分发以及计算梯度的累加,因此提高了运算系统的计算效率,降低了运算系统的网络通信开销。
本发明还提供一种用于深度神经网络的运算系统的运算方法,请参照图4,图4为本发明的用于深度神经网络的运算系统的运算方法的优选实施例的流程图。本优选实施例的运算方法可使用上述的运算系统进行实施,其包括:
步骤S401,主服务器将训练任务下发至所述计算模块,所述计算模块根据所述训练任务生成传输请求;
步骤S402,中心参数服务器根据传输请求,将计算模型传输至相应的计算模块;
步骤S403,计算模块的本地参数服务器按计算周期,从中心参数服务器下载计算模型,并将计算模型分发至各个计算单元;
步骤S404,计算模块的计算单元根据计算模型进行训练计算,以得到相应的计算梯度,并将计算梯度上报至本地参数服务器;
步骤S405,本地参数服务器按计算周期接收计算单元上报的计算梯度,并对计算梯度进行累加,以得到累加后的计算梯度;
步骤S406,中心参数服务器接收累加后的计算梯度,并根据累加后的计算梯度对相应的计算模型进行更新操作。
下面详细说明本优选实施例的用于深度神经网络的运算系统的运算方法。
在步骤S401中,主服务器将训练任务下发至计算模块,计算模块根据该训练任务生成传输请求,并发送至相应的中心参数服务器;这里的训练任务是指深度神经网络进行集群并行模型训练时,可进行并行运算的多个并行数据训练 任务。随后转到步骤S402。
在步骤S402中,中心参数服务器根据步骤S401获取的传输请求,将计算模型传输至相应的计算模块。随后转到步骤S403。
在步骤S403中,计算模块的本地参数服务器按计算周期,从所有的中心参数服务器上下载全部的计算模型,该计算模型分片存储在多个中心参数服务器上,这样可以较好的避免某一中心参数服务器成为热点。
优选的,本地参数服务器在计算周期开始时,从中心参数服务器下载相应的计算模型,并将下载的计算模型存储在计算模型存储单元。然后将计算模型存储单元设置为只读状态后,再将计算模型分发至各个计算单元。同时本地参数服务器将用于存储计算梯度的计算梯度存储单元清零,以便相应的计算单元上报的计算梯度在计算梯度存储单元中进行累加。随后转到步骤S404。
在步骤S404中,计算模块的计算单元根据计算模型进行训练计算,以得到相应的计算梯度,并将计算梯度上报至本地参数服务器。在本步骤中,同一本地参数服务器对应的多个计算单元,可根据计算模型进行并行训练计算。随后转到步骤S405。
在步骤S405中,本地参数服务器按计算周期接收计算单元上报的计算梯度,并对计算梯度进行累加,以得到累加后的计算梯度;并在每个计算周期结束时,将累加后的计算梯度上传至相应的中心参数服务器。随后转到步骤S406。
在步骤S406中,中心参数服务器接收累加后的计算梯度,并根据累加后的计算梯度对相应的计算模型进行更新操作。
这样即完成了本优选实施例的用于深度神经网络的运算系统的运算方法的运算过程。
下面通过一具体实施例说明本发明的深度神经网络的运算系统及运算方法的具体工作原理。
首先,如图5所示,图5为本发明的深度神经网络的运算系统及运算方法 中的计算模型的存储示意图。图中完整的计算模型分片存储在多个中心参数服务器51上,即每个中心参数服务器存储一部分计算模型,所有的中心参数服务器上存储有完整的计算模型。在图5中,计算模型被分为八片存储在八个中心参数服务器上。
随后中心参数服务器51根据计算模块的传输请求,将计算模型传输至相应的本地参数服务器52的计算模型存储单元,并通过计算模型存储单元分发至各个计算单元53,分发过程中计算模型存储单元为只读状态,具体如图6所示,图6为本发明的深度神经网络的运算系统及运算方法中的计算模型的分发示意图。
然后本地参数服务器52的计算梯度存储单元清零,接收计算单元53上报的计算梯度,并对计算梯度进行累加,这里可多条线程并行进行运算,具体如图7所示,图7为本发明的深度神经网络的运算系统及运算方法中的计算梯度的累加示意图。
随后本地参数服务器52将累加后的计算梯度上传至相应的中心参数服务器51;中心参数服务器51接收累加后的计算梯度,并根据累加后的计算梯度对相应的计算模型进行更新操作,具体如图8所示。
这样即完成了本发明的深度神经网络的运算系统及运算方法的具体实施例的运算过程。
本发明的深度神经网络的运算系统及运算方法在实际运行时,可根据实际需要设置计算周期的长度,即计算单元和本地参数服务器的数据交换频率,本地参数服务器和中心参数服务器的数据交换频率,以及中心参数服务器的更新频率。
本发明的深度神经网络的运算系统及运算方法在本地参数服务器上进行计算模型的同步分发以及计算梯度的积累,从而减小了中心参数服务器的计算负载以及通信负载。
本发明的深度神经网络的运算系统及运算方法可以根据深度神经网络的训练特点对计算周期的长度,即中心参数服务器的更新频率进行设定。如深度神经网络为稠密模型,则可设置较短的计算周期长度,即较大的中心参数服务器的更新频率,以保证中心参数服务器上的计算模型的及时更新。如深度神经网络为稀疏模型,则可设置较长的计算周期长度,即较小的中心参数服务器的更新频率,在保证计算准确性的基础上,减少了中心参数服务器的通信开销。
本发明的深度神经网络的运算系统及运算方法通过设置本地参数服务器,提高了运算系统的计算效率,降低了运算系统的网络通信开销;解决了现有的深度神经网络的运算系统及运算方法的计算效率较低以及网络通信开销较大的技术问题。
如本申请所使用的术语“组件”、“模块”、“系统”、“接口”、“进程”等等一般地旨在指计算机相关实体:硬件、硬件和软件的组合、软件或执行中的软件。例如,组件可以是但不限于是运行在处理器上的进程、处理器、对象、可执行应用、执行的线程、程序和/或计算机。通过图示,运行在控制器上的应用和该控制器二者都可以是组件。一个或多个组件可以有在于执行的进程和/或线程内,并且组件可以位于一个计算机上和/或分布在两个或更多计算机之间。
而且,要求保护的主题可以被实现为使用标准编程和/或工程技术产生软件、固件、硬件或其任意组合以控制计算机实现所公开的主题的方法、装置或制造品。本文所使用的术语“制造品”旨在包含可从任意计算机可读设备、载体或介质访问的计算机程序。当然,本领域技术人员将认识到可以对该配置进行许多修改,而不脱离要求保护的主题的范围或精神。
图9和随后的讨论提供了对实现本发明所述的深度神经网络的运算系统所在的电子设备的工作环境的简短、概括的描述。图9的工作环境仅仅是适当的工作环境的一个实例并且不旨在建议关于工作环境的用途或功能的范围的任何限制。实例电子设备912包括但不限于个人计算机、服务器计算机、手持式或 膝上型设备、移动设备(比如移动电话、个人数字助理(PDA)、媒体播放器等等)、多处理器系统、消费型电子设备、小型计算机、大型计算机、包括上述任意系统或设备的分布式计算环境,等等。
尽管没有要求,但是在“计算机可读指令”被一个或多个电子设备执行的通用背景下描述实施例。计算机可读指令可以经由计算机可读介质来分布(下文讨论)。计算机可读指令可以实现为程序模块,比如执行特定任务或实现特定抽象数据类型的功能、对象、应用编程接口(API)、数据结构等等。典型地,该计算机可读指令的功能可以在各种环境中随意组合或分布。
图9图示了包括本发明的深度神经网络的运算系统的一个或多个实施例的电子设备912的实例。在一种配置中,电子设备912包括至少一个处理单元916和存储器918。根据电子设备的确切配置和类型,存储器918可以是易失性的(比如RAM)、非易失性的(比如ROM、闪存等)或二者的某种组合。该配置在图9中由虚线914图示。
在其他实施例中,电子设备912可以包括附加特征和/或功能。例如,设备912还可以包括附加的存储装置(例如可移除和/或不可移除的),其包括但不限于磁存储装置、光存储装置等等。这种附加存储装置在图9中由存储装置920图示。在一个实施例中,用于实现本文所提供的一个或多个实施例的计算机可读指令可以在存储装置920中。存储装置920还可以存储用于实现操作系统、应用程序等的其他计算机可读指令。计算机可读指令可以载入存储器918中由例如处理单元916执行。
本文所使用的术语“计算机可读介质”包括计算机存储介质。计算机存储介质包括以用于存储诸如计算机可读指令或其他数据之类的信息的任何方法或技术实现的易失性和非易失性、可移除和不可移除介质。存储器918和存储装置920是计算机存储介质的实例。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字通用盘(DVD)或其他光存储装置、盒式磁带、磁带、磁盘存储装置或其他磁存储设备、或可以用于存储 期望信息并可以被电子设备912访问的任何其他介质。任意这样的计算机存储介质可以是电子设备912的一部分。
电子设备912还可以包括允许电子设备912与其他设备通信的通信连接926。通信连接926可以包括但不限于调制解调器、网络接口卡(NIC)、集成网络接口、射频发射器/接收器、红外端口、USB连接或用于将电子设备912连接到其他电子设备的其他接口。通信连接926可以包括有线连接或无线连接。通信连接926可以发射和/或接收通信媒体。
术语“计算机可读介质”可以包括通信介质。通信介质典型地包含计算机可读指令或诸如载波或其他传输机构之类的“己调制数据信号”中的其他数据,并且包括任何信息递送介质。术语“己调制数据信号”可以包括这样的信号:该信号特性中的一个或多个按照将信息编码到信号中的方式来设置或改变。
电子设备912可以包括输入设备924,比如键盘、鼠标、笔、语音输入设备、触摸输入设备、红外相机、视频输入设备和/或任何其他输入设备。设备912中也可以包括输出设备922,比如一个或多个显示器、扬声器、打印机和/或任意其他输出设备。输入设备924和输出设备922可以经由有线连接、无线连接或其任意组合连接到电子设备912。在一个实施例中,来自另一个电子设备的输入设备或输出设备可以被用作电子设备912的输入设备924或输出设备922。
电子设备912的组件可以通过各种互连(比如总线)连接。这样的互连可以包括外围组件互连(PCI)(比如快速PCI)、通用串行总线(USB)、火线(IEEE1394)、光学总线结构等等。在另一个实施例中,电子设备912的组件可以通过网络互连。例如,存储器918可以由位于不同物理位置中的、通过网络互连的多个物理存储器单元构成。
本领域技术人员将认识到,用于存储计算机可读指令的存储设备可以跨越网络分布。例如,可经由网络928访问的电子设备930可以存储用于实现本发明所提供的一个或多个实施例的计算机可读指令。电子设备912可以访问电子 设备930并且下载计算机可读指令的一部分或所有以供执行。可替代地,电子设备912可以按需要下载多条计算机可读指令,或者一些指令可以在电子设备912处执行并且一些指令可以在电子设备930处执行。
本文提供了实施例的各种操作。在一个实施例中,所述的一个或多个操作可以构成一个或多个计算机可读介质上存储的计算机可读指令,其在被电子设备执行时将使得计算设备执行所述操作。描述一些或所有操作的顺序不应当被解释为暗示这些操作必需是顺序相关的。本领域技术人员将理解具有本说明书的益处的可替代的排序。而且,应当理解,不是所有操作必需在本文所提供的每个实施例中存在。
而且,本文所使用的词语“优选的”意指用作实例、示例或例证。奉文描述为“优选的”任意方面或设计不必被解释为比其他方面或设计更有利。相反,词语“优选的”的使用旨在以具体方式提出概念。如本申请中所使用的术语“或”旨在意指包含的“或”而非排除的“或”。即,除非另外指定或从上下文中清楚,“X使用A或B”意指自然包括排列的任意一个。即,如果X使用A;X使用B;或X使用A和B二者,则“X使用A或B”在前述任一示例中得到满足。
而且,尽管已经相对于一个或多个实现方式示出并描述了本公开,但是本领域技术人员基于对本说明书和附图的阅读和理解将会想到等价变型和修改。本公开包括所有这样的修改和变型,并且仅由所附权利要求的范围限制。特别地关于由上述组件(例如元件、资源等)执行的各种功能,用于描述这样的组件的术语旨在对应于执行所述组件的指定功能(例如其在功能上是等价的)的任意组件(除非另外指示),即使在结构上与执行本文所示的本公开的示范性实现方式中的功能的公开结构不等同。此外,尽管本公开的特定特征已经相对于若干实现方式中的仅一个被公开,但是这种特征可以与如可以对给定或特定应用而言是期望和有利的其他实现方式的一个或多个其他特征组合。而且,就术语“包括”、“具有”、“含有”或其变形被用在具体实施方式或权利要求中而言,这样的术语旨在以与术语“包含”相似的方式包括。
本发明实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。上述提到的存储介质可以是只读存储器,磁盘或光盘等。上述的各装置或系统,可以执行相应方法实施例中的方法。
综上所述,虽然本发明已以优选实施例揭露如上,但上述优选实施例并非用以限制本发明,本领域的普通技术人员,在不脱离本发明的精神和范围内,均可作各种更动与润饰,因此本发明的保护范围以权利要求界定的范围为准。

Claims (12)

1.一种深度神经网络的运算系统,其特征在于,包括:
主服务器,用于将训练任务的下发至计算模块;以及中心参数服务器的逻辑控制;
多个中心参数服务器,用于根据所述计算模块的传输请求,将计算模型传输至相应的计算模块;以及接收所述计算模块上报的计算梯度,并根据所述计算梯度对相应的所述计算模型进行更新操作;以及
多个所述计算模块,包括:
本地参数服务器,用于按计算周期,从所述中心参数服务器下载相应的所述计算模型,并将所述计算模型分发至各个计算单元;以及按所述计算周期,接收所述计算单元上报的计算梯度,并对所述计算梯度进行累加,以将累加后的计算梯度上传至所述中心参数服务器;以及
多个所述计算单元,用于根据所述训练任务生成相应的所述传输请求;根据所述计算模型进行训练计算,以得到相应计算梯度;以及将所述计算梯度上报至所述本地参数服务器。
2.根据权利要求1所述的深度神经网络的运算系统,其特征在于,所述计算模型分片存储在多个所述中心参数服务器上;
所述本地参数服务器,用于按所述计算周期,从所有的所述中心参数服务器下载全部的所述计算模型。
3.根据权利要求1所述的深度神经网络的运算系统,其特征在于,所述本地参数服务器还包括用于存储所述计算梯度的计算梯度存储单元;
在每个所述计算周期开始时,所述本地参数服务器将所述计算梯度存储单元清零,以便将相应的所述计算单元上报的所述计算梯度在所述计算梯度存储单元中进行累加;
在每个所述计算周期结束时,所述本地参数服务器将累加后的计算梯度上传至相应的所述中心参数服务器。
4.根据权利要求1所述的深度神经网络的运算系统,其特征在于,所述本地参数服务器包括用于存储计算模型的计算模型存储单元;
当所述本地参数服务器将所述计算模型分发至各个所述计算单元时,所述计算模型存储单元设置为只读状态。
5.根据权利要求1所述的深度神经网络的运算系统,其特征在于,所述本地参数服务器在所述计算周期开始时,从所述中心参数服务器下载相应的所述计算模型,并将所述计算模型分发至各个计算单元。
6.根据权利要求1所述的深度神经网络的运算系统,其特征在于,同一所述本地参数服务器对应的多个所述计算单元,根据所述计算模型进行并行训练计算。
7.一种用于深度神经网络的运算系统的运算方法,其中所述运算系统包括主服务器、多个中心参数服务器以及多个计算模块;每个所述计算模块包括本地参数服务器以及多个计算单元;其特征在于,所述运算方法包括:
所述主服务器将训练任务的下发至所述计算模块,所述计算模块根据所述训练任务生成传输请求;
所述中心参数服务器根据所述传输请求,将计算模型传输至相应的所述计算模块;
所述计算模块的所述本地参数服务器按计算周期,从所述中心参数服务器下载所述计算模型,并将所述计算模型分发至各个所述计算单元;
所述计算模块的所述计算单元根据所述计算模型进行训练计算,以得到相应的计算梯度,并将所述计算梯度上报至所述本地参数服务器;
所述本地参数服务器按所述计算周期,接收所述计算单元上报的计算梯度,并对所述计算梯度进行累加,以得到累加后的计算梯度;以及
所述中心参数服务器接收所述累加后的计算梯度,并根据所述累加后的计算梯度对相应的所述计算模型进行更新操作。
8.根据权利要求7所述的用于深度神经网络的运算系统的运算方法,其特征在于,所述计算模型分片存储在多个所述中心参数服务器上;
所述本地参数服务器按计算周期,从所述中心参数服务器下载所述计算模型的步骤具体为:
所述本地参数服务器按所述计算周期,从所有的所述中心参数服务器下载全部的所述计算模型。
9.根据权利要求7所述的用于深度神经网络的运算系统的运算方法,其特征在于,所述本地参数服务器还包括用于存储所述计算梯度的计算梯度存储单元;
所述本地参数服务器按所述计算周期,接收所述计算单元上报的计算梯度,并对所述计算梯度进行累加,以得到累加后的计算梯度的步骤包括:
在每个所述计算周期开始时,所述本地参数服务器将所述计算梯度存储单元清零,以便将相应的所述计算单元上报的所述计算梯度在所述计算梯度存储单元中进行累加;
在每个所述计算周期结束时,所述本地参数服务器将累加后的计算梯度上传至相应的所述中心参数服务器。
10.根据权利要求7所述的用于深度神经网络的运算系统的运算方法,其特征在于,所述本地参数服务器包括用于存储计算模型的计算模型存储单元;
所述本地参数服务器将所述计算模型分发至各个所述计算单元的步骤包括:
当所述本地参数服务器将所述计算模型分发至各个所述计算单元时,将所述计算模型存储单元设置为只读状态。
11.根据权利要求7所述的用于深度神经网络的运算系统的运算方法,其特征在于,所述计算模块的所述本地参数服务器按计算周期,从所述中心参数服务器下载所述计算模型,并将所述计算模型分发至各个所述计算单元的步骤具体为:
所述本地参数服务器在所述计算周期开始时,从所述中心参数服务器下载相应的所述计算模型,并将所述计算模型分发至各个计算单元。
12.根据权利要求7所述的用于深度神经网络的运算系统的运算方法,其特征在于,所述计算模块的所述计算单元根据所述计算模型进行训练计算的步骤具体为:
同一所述本地参数服务器对应的多个所述计算单元,根据所述计算模型进行并行训练计算。
CN201510364386.9A 2015-06-26 2015-06-26 深度神经网络的运算系统及运算方法 Active CN105005911B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510364386.9A CN105005911B (zh) 2015-06-26 2015-06-26 深度神经网络的运算系统及运算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510364386.9A CN105005911B (zh) 2015-06-26 2015-06-26 深度神经网络的运算系统及运算方法

Publications (2)

Publication Number Publication Date
CN105005911A true CN105005911A (zh) 2015-10-28
CN105005911B CN105005911B (zh) 2017-09-19

Family

ID=54378572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510364386.9A Active CN105005911B (zh) 2015-06-26 2015-06-26 深度神经网络的运算系统及运算方法

Country Status (1)

Country Link
CN (1) CN105005911B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025205A (zh) * 2016-01-30 2017-08-08 华为技术有限公司 一种分布式系统中的训练模型的方法及设备
WO2017167044A1 (zh) * 2016-03-26 2017-10-05 阿里巴巴集团控股有限公司 一种分布式集群训练方法和装置
CN107330516A (zh) * 2016-04-29 2017-11-07 腾讯科技(深圳)有限公司 模型参数训练方法、装置及系统
CN107688493A (zh) * 2016-08-05 2018-02-13 阿里巴巴集团控股有限公司 训练深度神经网络的方法、装置及系统
CN107886167A (zh) * 2016-09-29 2018-04-06 北京中科寒武纪科技有限公司 神经网络运算装置及方法
CN108021982A (zh) * 2016-10-28 2018-05-11 北京市商汤科技开发有限公司 数据传输方法和系统、电子设备
CN108734288A (zh) * 2017-04-21 2018-11-02 上海寒武纪信息科技有限公司 一种运算方法及装置
CN109242755A (zh) * 2018-08-01 2019-01-18 浙江深眸科技有限公司 基于神经网络的计算机视觉处理服务器架构
CN109635948A (zh) * 2018-12-19 2019-04-16 北京达佳互联信息技术有限公司 在线训练方法、装置、系统及计算机可读存储介质
CN109754060A (zh) * 2017-11-06 2019-05-14 阿里巴巴集团控股有限公司 一种神经网络机器学习模型的训练方法及装置
CN110231958A (zh) * 2017-08-31 2019-09-13 北京中科寒武纪科技有限公司 一种矩阵乘向量运算方法及装置
CN110490316A (zh) * 2019-08-21 2019-11-22 腾讯科技(深圳)有限公司 基于神经网络模型训练系统的训练处理方法、训练系统
WO2020107762A1 (zh) * 2018-11-27 2020-06-04 深圳前海微众银行股份有限公司 Ctr预估方法、装置及计算机可读存储介质
CN113128528A (zh) * 2019-12-27 2021-07-16 无锡祥生医疗科技股份有限公司 超声影像深度学习分布式训练系统和训练方法
CN113982325A (zh) * 2021-11-15 2022-01-28 广东宏达通信有限公司 一种高效服务器系统及服务器机房
US11507350B2 (en) 2017-04-21 2022-11-22 Cambricon (Xi'an) Semiconductor Co., Ltd. Processing apparatus and processing method
US11531540B2 (en) 2017-04-19 2022-12-20 Cambricon (Xi'an) Semiconductor Co., Ltd. Processing apparatus and processing method with dynamically configurable operation bit width
CN117473144A (zh) * 2023-12-27 2024-01-30 深圳市活力天汇科技股份有限公司 一种航线数据的存储方法、计算机设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1480864A (zh) * 2002-09-03 2004-03-10 跨越科技股份有限公司 高扩展性的可分布式数字神经网络
CN1647079A (zh) * 2002-04-19 2005-07-27 计算机联合思想公司 使用神经网络进行数据挖掘
CN102496060A (zh) * 2011-12-07 2012-06-13 高汉中 基于神经网络的云端智能机系统
CN103680496A (zh) * 2013-12-19 2014-03-26 百度在线网络技术(北京)有限公司 基于深层神经网络的声学模型训练方法、主机和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1647079A (zh) * 2002-04-19 2005-07-27 计算机联合思想公司 使用神经网络进行数据挖掘
CN1480864A (zh) * 2002-09-03 2004-03-10 跨越科技股份有限公司 高扩展性的可分布式数字神经网络
CN102496060A (zh) * 2011-12-07 2012-06-13 高汉中 基于神经网络的云端智能机系统
CN103680496A (zh) * 2013-12-19 2014-03-26 百度在线网络技术(北京)有限公司 基于深层神经网络的声学模型训练方法、主机和系统

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025205B (zh) * 2016-01-30 2021-06-22 华为技术有限公司 一种分布式系统中的训练模型的方法及设备
US10764125B2 (en) 2016-01-30 2020-09-01 Huawei Technologies Co., Ltd. Method and device for training model in distributed system
CN107025205A (zh) * 2016-01-30 2017-08-08 华为技术有限公司 一种分布式系统中的训练模型的方法及设备
US11636379B2 (en) 2016-03-26 2023-04-25 Alibaba Group Holding Limited Distributed cluster training method and apparatus
WO2017167044A1 (zh) * 2016-03-26 2017-10-05 阿里巴巴集团控股有限公司 一种分布式集群训练方法和装置
CN107330516A (zh) * 2016-04-29 2017-11-07 腾讯科技(深圳)有限公司 模型参数训练方法、装置及系统
CN107330516B (zh) * 2016-04-29 2021-06-25 腾讯科技(深圳)有限公司 模型参数训练方法、装置及系统
CN107688493A (zh) * 2016-08-05 2018-02-13 阿里巴巴集团控股有限公司 训练深度神经网络的方法、装置及系统
CN107688493B (zh) * 2016-08-05 2021-06-18 阿里巴巴集团控股有限公司 训练深度神经网络的方法、装置及系统
CN107886167A (zh) * 2016-09-29 2018-04-06 北京中科寒武纪科技有限公司 神经网络运算装置及方法
CN107886167B (zh) * 2016-09-29 2019-11-08 北京中科寒武纪科技有限公司 神经网络运算装置及方法
CN108021982A (zh) * 2016-10-28 2018-05-11 北京市商汤科技开发有限公司 数据传输方法和系统、电子设备
US11698786B2 (en) 2017-04-19 2023-07-11 Shanghai Cambricon Information Technology Co., Ltd Processing apparatus and processing method
US11531541B2 (en) 2017-04-19 2022-12-20 Shanghai Cambricon Information Technology Co., Ltd Processing apparatus and processing method
US11531540B2 (en) 2017-04-19 2022-12-20 Cambricon (Xi'an) Semiconductor Co., Ltd. Processing apparatus and processing method with dynamically configurable operation bit width
US11720353B2 (en) 2017-04-19 2023-08-08 Shanghai Cambricon Information Technology Co., Ltd Processing apparatus and processing method
US11734002B2 (en) 2017-04-19 2023-08-22 Shanghai Cambricon Information Technology Co., Ltd Counting elements in neural network input data
CN109376852A (zh) * 2017-04-21 2019-02-22 上海寒武纪信息科技有限公司 运算装置及运算方法
CN108734288A (zh) * 2017-04-21 2018-11-02 上海寒武纪信息科技有限公司 一种运算方法及装置
US11507350B2 (en) 2017-04-21 2022-11-22 Cambricon (Xi'an) Semiconductor Co., Ltd. Processing apparatus and processing method
CN110231958A (zh) * 2017-08-31 2019-09-13 北京中科寒武纪科技有限公司 一种矩阵乘向量运算方法及装置
CN109754060B (zh) * 2017-11-06 2023-08-25 阿里巴巴集团控股有限公司 一种神经网络机器学习模型的训练方法及装置
CN109754060A (zh) * 2017-11-06 2019-05-14 阿里巴巴集团控股有限公司 一种神经网络机器学习模型的训练方法及装置
CN109242755A (zh) * 2018-08-01 2019-01-18 浙江深眸科技有限公司 基于神经网络的计算机视觉处理服务器架构
WO2020107762A1 (zh) * 2018-11-27 2020-06-04 深圳前海微众银行股份有限公司 Ctr预估方法、装置及计算机可读存储介质
CN109635948A (zh) * 2018-12-19 2019-04-16 北京达佳互联信息技术有限公司 在线训练方法、装置、系统及计算机可读存储介质
CN110490316B (zh) * 2019-08-21 2023-01-06 腾讯科技(深圳)有限公司 基于神经网络模型训练系统的训练处理方法、训练系统
CN110490316A (zh) * 2019-08-21 2019-11-22 腾讯科技(深圳)有限公司 基于神经网络模型训练系统的训练处理方法、训练系统
CN113128528A (zh) * 2019-12-27 2021-07-16 无锡祥生医疗科技股份有限公司 超声影像深度学习分布式训练系统和训练方法
CN113982325A (zh) * 2021-11-15 2022-01-28 广东宏达通信有限公司 一种高效服务器系统及服务器机房
CN117473144A (zh) * 2023-12-27 2024-01-30 深圳市活力天汇科技股份有限公司 一种航线数据的存储方法、计算机设备及可读存储介质
CN117473144B (zh) * 2023-12-27 2024-03-29 深圳市活力天汇科技股份有限公司 一种航线数据的存储方法、计算机设备及可读存储介质

Also Published As

Publication number Publication date
CN105005911B (zh) 2017-09-19

Similar Documents

Publication Publication Date Title
CN105005911A (zh) 深度神经网络的运算系统及运算方法
CN103777920B (zh) 基于数据特性来识别对应指令的数据处理系统
CN104899218A (zh) 数据读写方法及数据读写装置
CN103197976A (zh) 异构系统的任务处理方法及装置
CN105404506A (zh) 一种云计算镜像文件的构建方法及系统
CN109542352B (zh) 用于存储数据的方法和装置
CN104778079A (zh) 用于调度、执行的装置和方法以及分布式系统
CN106572146A (zh) 消息发送方法及消息发送装置
CN103034935A (zh) 一种用于实时盘点的装置及方法
CN103970578A (zh) 主从mcu升级方法
CN104731607A (zh) 终端终生学习处理方法、装置和系统
US11023825B2 (en) Platform as a service cloud server and machine learning data processing method thereof
CN106295670A (zh) 数据处理方法及数据处理装置
KR102420661B1 (ko) 신경망을 위한 데이터 처리 방법 및 장치
CN107291392A (zh) 一种固态硬盘及其读写方法
CN103580918A (zh) 一种配置数据处理方法及装置
EP3499378A1 (en) Method and system of sharing product data in a collaborative environment
CN105320669A (zh) 数据存储、读取方法及数据存储、读取装置
CN114138231A (zh) 执行矩阵乘法运算的方法、电路及soc
CN103713953A (zh) 一种内存数据的搬移装置及方法
CN114005458A (zh) 基于流水线架构的语音降噪方法、系统及存储介质
CN102393838A (zh) 数据处理方法及装置、pci-e总线系统、服务器
CN105045873A (zh) 一种数据文件的推送方法、装置及系统
CN104572275A (zh) 一种进程加载方法、装置及系统
CN104572638A (zh) 数据读写方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant