CN112148470A - 参数同步方法、计算机装置及可读存储介质 - Google Patents

参数同步方法、计算机装置及可读存储介质 Download PDF

Info

Publication number
CN112148470A
CN112148470A CN201910580500.XA CN201910580500A CN112148470A CN 112148470 A CN112148470 A CN 112148470A CN 201910580500 A CN201910580500 A CN 201910580500A CN 112148470 A CN112148470 A CN 112148470A
Authority
CN
China
Prior art keywords
stage
host
data
parameter synchronization
copying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910580500.XA
Other languages
English (en)
Other versions
CN112148470B (zh
Inventor
刘政岳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hongfujin Precision Electronics Tianjin Co Ltd
Original Assignee
Hongfujin Precision Electronics Tianjin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hongfujin Precision Electronics Tianjin Co Ltd filed Critical Hongfujin Precision Electronics Tianjin Co Ltd
Priority to CN201910580500.XA priority Critical patent/CN112148470B/zh
Priority to US16/517,916 priority patent/US11443191B2/en
Priority to TW108126272A priority patent/TWI734151B/zh
Publication of CN112148470A publication Critical patent/CN112148470A/zh
Application granted granted Critical
Publication of CN112148470B publication Critical patent/CN112148470B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Hardware Redundancy (AREA)
  • Multi Processors (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

本发明提供一种参数同步方法,包括将预设模型的深度学习训练任务导入至服务器中;记录预设数量的迭代进程;将每个迭代进程根据时间划分为多个阶段,包括主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作阶段;判断主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占时间比是否大于预设值;及当判定每个阶段在每个迭代进程中所占的时间比大于所述预设值时,确定服务器使用复制模式进行参数同步。本发明还提供一种计算机装置及可读存储介质。本发明通过分析深度学习训练过程中的每次迭代行为以建议最佳的性能参数同步方法,提高了深度学习的训练效率。

Description

参数同步方法、计算机装置及可读存储介质
技术领域
本发明涉及深度学习技术领域,尤其涉及一种参数同步方法、计算机装置及可读存储介质。
背景技术
随着科学技术的发展,深度学习技术已广泛地应用于图像识别、科研技术、金融应用等领域。深度学习需要大量计算机集群进行分布式计算,每个计算机之间存在频繁的参数交换,每个计算机的GPU与CPU之间也存在大量的数据交换,现有的深度学习平台在参数同步的过程中,通常无法同时对GPU与CPU的数据进行分析,影响参数同步的效率,而且也不能提供跨平台服务,导致应用范围有限。
发明内容
鉴于以上内容,有必要提出一种参数同步方法、计算机装置及可读存储介质,以解决上述技术问题。
本申请的第一方面提供一种参数同步方法,应用于计算机装置中,所述方法包括:
将一预设模型的深度学习训练任务导入至所述计算机装置中;
在深度学习训练的过程中记录预设数量的迭代进程;
对每个迭代进程根据时间划分为多个阶段,其中,所述多个阶段至少包括主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段;
判断主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比是否大于一预设值;及
当判定主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比大于所述预设值时,确定所述计算机装置使用复制模式进行参数同步。
本申请的第二方面提供一种计算机装置,所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如前所述参数同步方法。
本申请的第三方面提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述参数同步方法。
本发明通过分析深度学习训练过程中的每次迭代行为,以建议最佳的性能参数同步方法,提高了参数同步的效率,进一步提高了深度学习的训练效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明实施例一提供的参数同步方法的应用环境架构示意图。
图2是本发明实施例二提供的参数同步方法的流程图。
图3是本发明实施例三提供的参数同步系统的结构示意图。
图4是本发明实施例四提供的计算机装置示意图。
主要元件符号说明
Figure BDA0002112954370000021
Figure BDA0002112954370000031
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
实施例一
参阅图1所示,为本发明实施例一提供的参数同步方法的应用环境架构示意图。
本发明中的参数同步方法应用在计算机装置1中,所述计算机装置1与至少一个服务器2通过网络建立通信连接。所述网络可以是有线网络,也可以是无线网络,例如无线电、无线保真(Wireless Fidelity,WIFI)、蜂窝、卫星、广播等。
所述计算机装置1可以为安装有参数同步程序的电子设备,例如个人电脑、服务器等,其中,所述服务器可以是单一的服务器、服务器集群或云端服务器等。
所述服务器2可以是单一的服务器、服务器集群或云端服务器等。
实施例二
请参阅图2所示,是本发明第二实施例提供的参数同步方法的流程图。根据不同的需求,所述流程图中步骤的顺序可以改变,某些步骤可以省略。
步骤S10,将一预设模型的深度学习训练任务导入至与所述计算机装置1通信连接的服务器2中。
在本实施方式中,所述预设模型可以是基于图像识别、金融分类等的神经网络模型。所述步骤S10还包括当所述预设模型的深度学习训练任务导入至所述服务器2中之后,控制性能分析工具记录训练过程中的程序跟踪。在本实施方式中,所述性能分析工具为SOFA(Swarm-Oriented Function Call Analysis,面向群的函数调用分析)。
步骤S20,在深度学习训练的过程中记录预设数量的迭代进程。
在本实施方式中,所述性能分析工具SOFA检索到的每个迭代追踪是互相隔离的,因此,所述步骤S20具体包括根据检索到的所述迭代跟踪距离所述预设数量的迭代进程。其中,所述预设数量为10个。
步骤S30,控制所述性能分析工具记录每个迭代进程的性能指标。
在本实施方式中,所述性能指标至少包括每个迭代进程的持续时间及PCIE(Peripheral Component Interface Express,高速串行计算机扩展总线标准)带宽。
步骤S40,将每个迭代进程根据时间划分为多个阶段。
在本实施方式中,所述多个阶段至少包括主机复制数据至GPU设备的阶段H2D、GPS设备复制数据至主机的阶段D2H及CPU端工作的阶段、正向传播阶段FW及反向传播阶段BW。其中,CPU端工作的阶段为每两个连续迭代进程之间的间隙时间。
具体的,所述步骤S40包括预设多个功能符号作为迭代进程中每个阶段开始与结束的标识,然后根据预设的所述多个功能符号生成所述多个阶段。其中,所述内核名称至少包括向前传播时间FW、向后传播时间BW及数据复制。
例如,H2D阶段包括从第一个H2D时间点到第一个FW时间点,FW阶段包括从第一个FW开始时间点到第一个BW时间点,BW+D2H阶段包括从第一个BW时间点到最后一个D2H时间点。
步骤S50,判断主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比是否大于一预设值。
在本实施方式中,通过计算每个阶段的持续时间以判断主机复制数据至GPU设备的阶段H2D、GPS设备复制数据至主机的阶段D2H及CPU工作的阶段在每个迭代进程中所占的时间比是否大于所述预设值。
具体的,所述步骤S50包括根据检索到的迭代跟踪及系统配置预估数据复制的可能时间,根据预估的数据复制时间生成预估的持续时间。例如,假设每次迭代进程中,数据复制的大小为100MB,上述确定的PCIE带宽为10GB/s,则所述数据复制的持续时间为1ms。即,所述步骤S50通过每个阶段数据复制量的大小及每个阶段的带宽计算每个阶段的持续时间,进一步计算H2D、D2H及CPU的持续时间之和与所述迭代进程的总时间的比例,并判断所述比例是否大于所述预设值。
在本实施方式中,所述预设值为40%。在其他实施方式中,所述预设值也可以根据需求设置为其他数值。
步骤S60,当判定主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比大于所述预设值时,确定所述服务器2使用复制模式进行参数同步。
在本实施方式中,当主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比大于所述预设值时,说明CPU端的工作时间以及CPU端与GPU端之间数据交互的时间占主导地位,采用复制模式进行参数同步,即所述计算机装置1发送指令以控制多个服务器2之间通过数据复制的方式更新深度学习参数,从而实现参数同步,如此可以减少CPU端与GPU端的工作负荷。
步骤S70,当判定主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比小于或等于所述预设值时,确定所述服务器2使用参数服务器模式进行参数同步。
在本实施方式中,当主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比小于或等于所述预设值时,说明正向传播阶段FW与反向传播阶段BW的持续时间占主导地位,采用参数服务器模式进行参数同步,即所述计算机装置1发送指令以控制多个服务器2以队列的形式向所述计算机装置1请求同步参数,所述计算机装置1将更新的深度学习参数按队列发送至每个服务器2,从而实现参数同步,如此可以适当提高CPU端与GPU端的利用率。
进一步地,所述参数同步方法还可包括步骤:根据主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比输出如何更改系统配置的提示。例如,当判定主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比大于所述预设值时,提示增设服务器或增加带宽。当判定主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比小于或等于所述预设值时,提示减少服务器或减少带宽。
应所述了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
实施例三
图3为本发明参数同步系统较佳实施例的结构图。
在一些实施例中,参数同步系统100运行于计算机装置1中。所述计算机装置1通过网络连接了多个服务器2。所述参数同步系统100可以包括多个由程序代码段所组成的功能模块。所述参数同步系统100中的各个程序段的程序代码可以存储于计算机装置1的存储器中,并由所述至少一个处理器所执行,以实现参数同步功能。
本实施例中,所述参数同步系统100根据其所执行的功能,可以被划分为多个功能模块。参阅图4所示,所述功能模块可以包括:导入模块101、记录模块102、划分模块103、判断模块104及确定模块105。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在本实施例中,关于各模块的功能将在后续的实施例中详述。
所述导入模块101用于将一预设模型的深度学习训练任务导入至与所述计算机装置1通信连接的服务器2中。
所述记录模块102用于在深度学习训练的过程中记录预设数量的迭代进程。
所述记录模块102还用于控制所述性能分析工具记录每个迭代进程的性能指标。
所述划分模块103用于将每个迭代进程根据时间划分为多个阶段。
所述判断模块104用于判断主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比是否大于一预设值。
所述确定模块105用于当判定主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比大于所述预设值时,确定所述服务器2使用复制模式进行参数同步。
所述确定模块105还用于当判定主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比小于或等于所述预设值时,确定所述服务器使用参数服务器模式进行参数同步。
实施例四
图4为本发明计算机装置较佳实施例的示意图。
所述计算机装置1包括处理器10、存储器20、以及存储在所述存储器20中并可在所述处理器10上运行的计算机程序30,例如参数同步程序。所述处理器10执行所述计算机程序30时实现上述参数同步实施例中的步骤,例如图2所示的步骤S10~S70。或者,所述处理器10执行所述计算机程序30时实现上述参数同步系统实施例中各模块/单元的功能,例如图3中的模块101-105。
示例性的,所述计算机程序30可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器20中,并由所述处理器10执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,所述指令段用于描述所述计算机程序30在所述计算机装置1中的执行过程。例如,所述计算机程序30可以被分割成图3中的:导入模块101、记录模块102、划分模块103、判断模块104及确定模块105。各模块具体功能参见实施例三。
所述计算机装置1可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,所述示意图仅仅是计算机装置1的示例,并不构成对计算机装置1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算机装置1还可以包括输入输出设备、网络接入设备、总线等。
所称处理器10可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者所述处理器10也可以是任何常规的处理器等,所述处理器10是所述计算机装置1的控制中心,利用各种接口和线路连接整个计算机装置1的各个部分。
所述存储器20可用于存储所述计算机程序30和/或模块/单元,所述处理器10通过运行或执行存储在所述存储器20内的计算机程序和/或模块/单元,以及调用存储在存储器20内的数据,实现所述计算机装置1的各种功能。所述存储器20可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机装置1的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器20可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述计算机装置1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,所述计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在本发明所提供的几个实施例中,应所述理解到,所揭露的计算机装置和方法,可以通过其它的方式实现。例如,以上所描述的计算机装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
另外,在本发明各个实施例中的各功能单元可以集成在相同处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在相同单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。计算机装置权利要求中陈述的多个单元或计算机装置也可以由同一个单元或计算机装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种参数同步方法,应用于计算机装置中,其特征在于,所述方法包括:
将一预设模型的深度学习训练任务导入至与所述计算机装置通信连接的服务器中;
在深度学习训练的过程中记录预设数量的迭代进程;
将每个迭代进程根据时间划分为多个阶段,其中,所述多个阶段至少包括主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段;
判断主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比是否大于一预设值;及
当判定主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比大于所述预设值时,确定所述服务器使用复制模式进行参数同步。
2.如权利要求1所述的参数同步方法,其特征在于,所述方法还包括:当判定主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比小于或等于所述预设值时,确定所述服务器使用参数服务器模式进行参数同步。
3.如权利要求1所述的参数同步方法,其特征在于,“在深度学习训练的过程中记录预设数量的迭代进程”具体包括:
在深度学习训练的过程中控制一性能分析工具检索每个迭代追踪,其中,每个迭代跟踪之间互相隔离;及
根据所述迭代跟踪记录所述预设数量的迭代进程。
4.如权利要求3所述的参数同步方法,其特征在于,所述方法还包括:
控制所述性能分析工具记录每个迭代进程的性能指标,其中,所述性能指标至少包括持续时间及PCIE带宽。
5.如权利要求4所述的参数同步方法,其特征在于,“将每个迭代进程根据时间划分为多个阶段”具体包括:
预设多个功能符号作为迭代进程中每个阶段开始与结束的标识;及
根据预设的所述多个功能符号生成所述多个阶段。
6.如权利要求5所述的参数同步方法,其特征在于,“判断主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比是否大于一预设值”具体包括:
通过计算每个阶段的持续以判断主机复制数据至GPU设备的阶段、GPS设备复制数据至主机的阶段及CPU工作的阶段在每个迭代进程中所占的时间比是否大于所述预设值。
7.如权利要求5所述的参数同步方法,其特征在于:所述功能符号为内核名称,其中,所述内核名称至少包括向前传播时间FW、向后传播时间BW及数据复制。
8.如权利要求6所述的参数同步方法,其特征在于,“计算每个阶段的时间占比”具体包括:
根据检索到的迭代跟踪及系统配置预估数据复制的可能时间;及
根据预估的数据复制时间生成预估的持续时间。
9.一种计算机装置,其特征在于:所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1-8中任一项所述的参数同步方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-8中任一项所述的参数同步方法。
CN201910580500.XA 2019-06-28 2019-06-28 参数同步方法、计算机装置及可读存储介质 Active CN112148470B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910580500.XA CN112148470B (zh) 2019-06-28 2019-06-28 参数同步方法、计算机装置及可读存储介质
US16/517,916 US11443191B2 (en) 2019-06-28 2019-07-22 Computing device and parameter synchronization method implemented by computing device
TW108126272A TWI734151B (zh) 2019-06-28 2019-07-24 參數同步方法、電腦裝置及存儲介質

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910580500.XA CN112148470B (zh) 2019-06-28 2019-06-28 参数同步方法、计算机装置及可读存储介质

Publications (2)

Publication Number Publication Date
CN112148470A true CN112148470A (zh) 2020-12-29
CN112148470B CN112148470B (zh) 2022-11-04

Family

ID=73891625

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910580500.XA Active CN112148470B (zh) 2019-06-28 2019-06-28 参数同步方法、计算机装置及可读存储介质

Country Status (3)

Country Link
US (1) US11443191B2 (zh)
CN (1) CN112148470B (zh)
TW (1) TWI734151B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115860055A (zh) * 2022-11-23 2023-03-28 北京百度网讯科技有限公司 性能确定方法、性能优化方法、装置、电子设备以及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156810A (zh) * 2015-04-26 2016-11-23 阿里巴巴集团控股有限公司 通用机器学习算法模型训练方法、系统和计算节点
CN106951926A (zh) * 2017-03-29 2017-07-14 山东英特力数据技术有限公司 一种混合架构的深度学习系统方法及装置
CN109271015A (zh) * 2018-10-10 2019-01-25 杭州电子科技大学 一种降低大规模分布式机器学习系统能耗的方法
CN109272118A (zh) * 2018-08-10 2019-01-25 北京达佳互联信息技术有限公司 数据训练方法、装置、设备及存储介质
US20190080233A1 (en) * 2017-09-14 2019-03-14 Intel Corporation Synchronization scheduler of distributed neural network training
CN109816042A (zh) * 2019-02-01 2019-05-28 北京达佳互联信息技术有限公司 数据分类模型训练的方法、装置、电子设备和存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866827B2 (en) * 2008-06-26 2014-10-21 Microsoft Corporation Bulk-synchronous graphics processing unit programming
US9038088B2 (en) * 2011-03-10 2015-05-19 Nec Laboratories America, Inc. Load balancing on hetrogenous processing cluster based on exceeded load imbalance factor threshold determined by total completion time of multiple processing phases
US9208755B2 (en) * 2012-12-03 2015-12-08 Nvidia Corporation Low power application execution on a data processing device having low graphics engine utilization
WO2017049583A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Gpu-cpu two-path memory copy
CN107817216B (zh) * 2017-10-31 2020-06-02 武汉精测电子集团股份有限公司 一种基于cpu+gpu+fpga架构的自动光学检测系统
US11164079B2 (en) * 2017-12-15 2021-11-02 International Business Machines Corporation Multi-GPU deep learning using CPUs

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156810A (zh) * 2015-04-26 2016-11-23 阿里巴巴集团控股有限公司 通用机器学习算法模型训练方法、系统和计算节点
CN106951926A (zh) * 2017-03-29 2017-07-14 山东英特力数据技术有限公司 一种混合架构的深度学习系统方法及装置
US20190080233A1 (en) * 2017-09-14 2019-03-14 Intel Corporation Synchronization scheduler of distributed neural network training
CN109272118A (zh) * 2018-08-10 2019-01-25 北京达佳互联信息技术有限公司 数据训练方法、装置、设备及存储介质
CN109271015A (zh) * 2018-10-10 2019-01-25 杭州电子科技大学 一种降低大规模分布式机器学习系统能耗的方法
CN109816042A (zh) * 2019-02-01 2019-05-28 北京达佳互联信息技术有限公司 数据分类模型训练的方法、装置、电子设备和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115860055A (zh) * 2022-11-23 2023-03-28 北京百度网讯科技有限公司 性能确定方法、性能优化方法、装置、电子设备以及介质
CN115860055B (zh) * 2022-11-23 2024-01-02 北京百度网讯科技有限公司 性能确定方法、性能优化方法、装置、电子设备以及介质

Also Published As

Publication number Publication date
US11443191B2 (en) 2022-09-13
TW202101205A (zh) 2021-01-01
TWI734151B (zh) 2021-07-21
US20200410359A1 (en) 2020-12-31
CN112148470B (zh) 2022-11-04

Similar Documents

Publication Publication Date Title
CN111914520A (zh) 文档协同编辑方法、装置、计算机装置及存储介质
US20170201566A1 (en) File downloading method, apparatus, and terminal device
CN108263075B (zh) 网版微调方法、装置、终端设备及可读存储介质
US11132362B2 (en) Method and system of optimizing database system, electronic device and storage medium
US11615607B2 (en) Convolution calculation method, convolution calculation apparatus, and terminal device
CN111522574B (zh) 差分包生成方法及相关设备
CN111858735B (zh) 数据导入方法、装置、电子设备及存储介质
CN114461382A (zh) 可灵活配置的算力调度实现方法、装置及存储介质
CN109697083B (zh) 数据的定点化加速方法、装置、电子设备及存储介质
CN109542398B (zh) 一种业务系统生成方法、装置及计算机可读存储介质
CN112148470B (zh) 参数同步方法、计算机装置及可读存储介质
CN110569230A (zh) 数据库设计模型与设计文档互相转换方法、系统及设备
CN115035017A (zh) 细胞密度分群方法、装置、电子设备及存储介质
CN109558403B (zh) 数据聚合方法及装置、计算机装置及计算机可读存储介质
CN113272785B (zh) 一种挂载文件系统的方法、终端设备及存储介质
CN108322542B (zh) 数据更新方法、系统、装置以及计算机可读存储介质
CN109901931B (zh) 一种归约函数数量确定方法、装置及系统
CN109803160B (zh) 一种资源分配方法、装置及系统
CN110032445B (zh) 大数据聚集计算方法及装置
CN112114931B (zh) 深度学习程序配置方法、装置、电子设备及存储介质
CN113392131A (zh) 数据处理方法、装置及计算机设备
CN109543079B (zh) 数据查询方法、装置、计算设备及存储介质
CN112667631A (zh) 业务字段自动编辑方法、装置、设备及存储介质
CN111027196A (zh) 一种电力设备的仿真分析任务处理方法、装置及存储介质
CN111090633A (zh) 一种分布式文件系统的小文件聚合方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: No. 36, North Street, West District, economic and Technological Development Zone, Binhai New Area, Tianjin

Applicant after: Fulian precision electronics (Tianjin) Co.,Ltd.

Address before: No. 36, North Street, West District, economic and Technological Development Zone, Binhai New Area, Tianjin

Applicant before: HONGFUJIN PRECISION ELECTRONICS (TIANJIN) Co.,Ltd.

GR01 Patent grant
GR01 Patent grant