CN113610241B - 深度学习模型的分布式训练方法、装置、设备及存储介质 - Google Patents
深度学习模型的分布式训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113610241B CN113610241B CN202110884863.XA CN202110884863A CN113610241B CN 113610241 B CN113610241 B CN 113610241B CN 202110884863 A CN202110884863 A CN 202110884863A CN 113610241 B CN113610241 B CN 113610241B
- Authority
- CN
- China
- Prior art keywords
- training
- tensorflow
- logic
- horovod
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 277
- 238000013136 deep learning model Methods 0.000 title claims abstract description 110
- 238000000034 method Methods 0.000 title claims abstract description 110
- 238000004806 packaging method and process Methods 0.000 claims abstract description 46
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000004364 calculation method Methods 0.000 claims abstract description 20
- 230000006870 function Effects 0.000 claims description 68
- 230000001133 acceleration Effects 0.000 claims description 62
- 238000007373 indentation Methods 0.000 claims description 42
- 238000010276 construction Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 8
- 230000008014 freezing Effects 0.000 claims description 5
- 238000007710 freezing Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 7
- 230000008676 import Effects 0.000 description 15
- 238000005538 encapsulation Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 235000008694 Humulus lupulus Nutrition 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明实施例公开了一种深度学习模型的分布式训练方法、装置、设备及存储介质。该方法包括:获取目标深度学习模型的TensorFlow训练代码;确定所述TensorFlow训练代码的目标逻辑及封装类型;根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整;运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。上述技术方案在Tensorflow代码背景下,自动实现深度学习模型的Horovod分布式训练计算的技术效果。
Description
技术领域
本发明实施例涉及分布式计算技术领域,尤其涉及一种深度学习模型的Horovod分布式训练方法、装置、设备及存储介质。
背景技术
目前人工智能领域分布式计算主要采用数据并行方式,有两种工程实现方法:参数服务器(Parameter Server)和Ring-AllReduce架构。其中,Horovod是基于Ring-AllReduce方法的深度分布式学习插件,由Uber构建并开源,兼容TensorFlow、PyTorch等深度学习主流计算框架,能够简化并加速分布式深度学习项目的启动与运行。通过利用消息传递接口(简称MPI)实现应用环状规约,显著提升TensorFlow等模型框架的实用性与性能表现。
然而,Horovod的问题在于对异构加速平台功能的支持不完善,例如,对ROCm平台(Radeon Open Compute platform,Radeon开放计算平台)功能的支持不完善,且在Tensorflow代码背景下,无法自动地实现深度学习模型的Horovod分布式训练计算。
发明内容
本发明实施例提供一种深度学习模型的Horovod分布式训练方法、装置、设备及存储介质,以自动地实现深度学习模型的Horovod分布式训练计算。
第一方面,本发明实施例提供了一种深度学习模型的Horovod分布式训练方法,包括:
获取目标深度学习模型的TensorFlow训练代码;
确定所述TensorFlow训练代码的目标逻辑及封装类型;
根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整;
运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
可选的,所述目标逻辑及封装类型至少包括:逻辑简单非高度封装、逻辑复杂非高度封装、逻辑简单高度封装和逻辑复杂高度封装。
上述技术方案,创造性地将目标深度学习模型的TensorFlow训练代码按照逻辑复杂程度和封装程度进行类型划分,进而可以采用不同的方式针对不同类型的目标深度学习模型实现Horovod分布式训练的自动化。
可选的,当所述目标逻辑及封装类型为逻辑简单非高度封装时,根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整,包括:
在训练主文件中导入配置Tensorflow接口的Horovod模块;
初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
根据加速卡总数量按倍数增大学习率;
在与计算汇总操作对应的目标进程上保存检测点,并重新定义Tensorflow会话。
上述技术方案,针对TensorFlow训练代码逻辑简单且非高度封装的目标深度学习模型提供了自动化实现深度学习模型的Horovod分布式训练计算的方式。
可选的,当所述目标逻辑及封装类型为逻辑复杂非高度封装时,根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整,包括:
在训练主文件中导入配置Tensorflow接口的Horovod模块;
初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
广播初始变量值到与各加速卡绑定的所有进程,并重新定义Tensorflow会话;
根据加速卡总数量按倍数增大学习率。
上述技术方案,针对TensorFlow训练代码逻辑复杂且非高度封装的目标深度学习模型提供了自动化实现深度学习模型的Horovod分布式训练计算的方式。
可选的,当所述目标逻辑及封装类型为逻辑复杂非高度封装时,在运行调整后的TensorFlow训练代码时,还包括:
若存在会话实体没有会话属性的报错函数,则在所述报错函数的定义行下方一行以与所述报错函数内部原代码段相同的缩进添加获取默认计算图的代码,并对所述报错函数内部原代码段整体增加缩进;
若存在指示图形已完成且无法修改的报错,则在导入的所述配置Tensorflow接口的Horovod模块的下方一行添加清除默认图形堆栈并重置全局默认图形的代码段,并在会话定义处下方一行以相同缩进添加禁止图冻结的代码段;
若存在指示会话类型错误的报错,则在类定义内部构造方法函数外部以相同缩进添加新的会话函数代码段,并将报错代码段中的已有会话函数定义关键字替换为与所述新的会话函数代码段对应的会话函数定义关键字。
上述技术方案,提供了在调整后的TensorFlow训练代码运行时几种报错的解决方案,包括会话实体没有会话属性的报错、指示“图形已完成,无法修改”的报错和会话类型错误的报错。
可选的,当所述目标逻辑及封装类型为逻辑简单高度封装或逻辑复杂高度封装时,根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整,包括:
在训练主文件中导入配置Tensorflow接口的Horovod模块;
初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
查找引用高度封装应用程序接口的关键字,并使用重新设置的配置参数对所述关键字涉及的配置参数进行替换;
根据加速卡总数量按倍数增大学习率。
可选的,当所述目标逻辑及封装类型为逻辑简单高度封装时,在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定,包括:
在基于定义主函数的关键字对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
当所述目标逻辑及封装类型为逻辑复杂高度封装时,在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定,包括:
在基于定义类中定义构造方法的关键字对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定。
第二方面,本发明实施例还提供了一种深度学习模型的Horovod分布式训练装置,该装置包括:
训练代码获取模块,用于获取目标深度学习模型的TensorFlow训练代码;
逻辑及封装类型确定模块,用于确定所述TensorFlow训练代码的目标逻辑及封装类型;
训练代码调整模块,用于根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整;
训练代码运行模块,用于运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
第三方面,本发明实施例还提供了一种计算机设备,所述计算机设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所述的方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任一实施例所述的方法。
本发明实施例的技术方案,获取目标深度学习模型的TensorFlow训练代码之后,对训练代码的逻辑及封装类型进行分析,并根据与训练代码所属的逻辑及封装类型匹配的处理策略对训练代码进行调整,此时运行调整后的训练代码即可实现目标深度学习模型Horovod分布式训练,由此达到了在Tensorflow代码背景下,自动实现深度学习模型的Horovod分布式训练计算的技术效果,极大地减小了人工参与工作量,提高了工作效率。
附图说明
图1是本发明实施例一中的一种深度学习模型的Horovod分布式训练方法的流程图;
图2是本发明实施例二中的一种深度学习模型的Horovod分布式训练方法的流程图;
图3是本发明实施例三中的一种深度学习模型的Horovod分布式训练方法的流程图;
图4是本发明实施例四中的一种深度学习模型的Horovod分布式训练方法的流程图;
图5是本发明实施例五中的一种深度学习模型的Horovod分布式训练装置的结构示意图;
图6是本发明实施例六中的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种深度学习模型的Horovod分布式训练方法的流程图,本实施例可适用于使深度学习模型自动实现Horovod分布式训练的情况,该方法可以由深度学习模型的Horovod分布式训练装置来执行,该装置可采用硬件和/或软件的方式实现,并一般可以集成在计算机设备中。
如图1所示,本实施例提供的深度学习模型的Horovod分布式训练方法,包括如下步骤:
S110、获取目标深度学习模型的TensorFlow训练代码。
目标深度学习模型,指的是一种基于深度学习技术的人工智能模型,例如可以是YOLO(You Only Look Once)模型、Transformer模型等。
在本实施例中,目标深度学习模型的训练代码是基于TensorFlow实现的。
S120、确定所述TensorFlow训练代码的目标逻辑及封装类型。
逻辑及封装类型,是根据训练代码的逻辑复杂程度以及封装程度划分的。其中,逻辑复杂程度可以分为逻辑简单和逻辑复杂,封装程度可以分为高度封装和非高度封装。
可选的,逻辑及封装类型可以包括逻辑简单非高度封装、逻辑复杂非高度封装、逻辑简单高度封装和逻辑复杂高度封装。
在获取到目标深度学习模型的TensorFlow训练代码,对TensorFlow训练代码进行分析,确定TensorFlow训练代码所属的目标逻辑及封装类型。
作为一种可选的实施方式,可以根据TensorFlow训练代码中是否包括高阶TensorFlow API(Application Programming Interface,应用程序接口)来确定TensorFlow训练代码的封装程度。若TensorFlow训练代码中包括高阶TensorFlow API,则可以确定TensorFlow训练代码为高度封装;若TensorFlow训练代码中不包括高阶TensorFlow API,则可以确定TensorFlow训练代码为非高度封装。本实施例对高阶TensorFlow API不做具体限定。
可选的,高阶TensorFlow API可以具体为Estimator。其中,Estimator会封装训练、评估、预测、导出等操作以供使用。Estimator可以在本地主机上或分布式多服务器环境中运行基于Estimator的模型,而无需更改模型。无论是预创建的还是自定义的,所有Estimator都是基于tf.estimator.Estimator类的类。
作为一种可选的实施方式,遍历目标深度学习模型的TensorFlow训练代码,查找Estimator训练模式的关键字“tf.estimator.ModeKeys.TRAIN”,若遍历到该关键字,则确定目标深度学习模型的TensorFlow训练代码为高度封装,若未遍历到该关键字,则确定目标深度学习模型的TensorFlow训练代码为非高度封装。
作为一种可选的实施方式,可以根据TensorFlow训练代码是否面向对象编程来确定TensorFlow训练代码的逻辑复杂程度,例如可以为根据是否用类来描述一个对象(实例)并建立实例与实例的关联关系来确定TensorFlow训练代码的逻辑复杂程度。若TensorFlow训练代码面向对象编程,例如用类来描述一个对象(实例)并建立实例与实例的关联关系,则可以确定TensorFlow训练代码逻辑复杂;若TensorFlow训练代码未面向对象编程,例如未用类来描述一个对象(实例)并建立实例与实例的关联关系,则可以确定TensorFlow训练代码逻辑简单。
作为一种可选的实施方式,遍历目标深度学习模型的TensorFlow训练代码,查找定义类的关键字,如“class*:”、查找定义构造方法的关键字,如“def__init__”、查找参数关键字,如“self”,其中,*可以指代任意字符。示例性的,定义类的通用语法格式如下:
class类名(继承列表):
def__init__(self[,参数列表]):
语句块
(其中,[]代表可省略)
若遍历到上述关键字,则确定目标深度学习模型的TensorFlow训练代码逻辑复杂;若未遍历到上述关键字,则确定目标深度学习模型的TensorFlow训练代码逻辑简单。
在上述技术方案的基础上,可以根据TensorFlow训练代码中是否包括高阶TensorFlow API,以及是否面向对象编程来确定目标深度学习模型的TensorFlow训练代码的目标逻辑及封装类型。由此,可以确定目标深度学习模型的TensorFlow训练代码属于逻辑简单非高度封装、逻辑复杂非高度封装、逻辑简单高度封装和逻辑复杂高度封装中的一种。示例性的,YOLOV3模型的TensorFlow训练代码的目标逻辑及封装类型为逻辑复杂非高度封装,Transformer模型的TensorFlow训练代码的目标逻辑及封装类型为逻辑简单高度封装。
上述技术方案,创造性地将目标深度学习模型的TensorFlow训练代码按照逻辑复杂程度和封装程度进行类型划分,进而可以采用不同的方式针对不同类型的目标深度学习模型实现Horovod分布式训练的自动化。
S130、根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整。
在本实施例中,针对不同逻辑及封装类型的目标深度学习模型的TensorFlow训练代码采用不同的处理策略进行代码调整,以使调整后的TensorFlow训练代码适用于分布式训练。
其中,与目标逻辑及封装类型的各种处理策略均依据的是Horovod分布式训练的实现流程,用于实现Horovod分布式训练代码的改写。但由于针对的目标深度学习模型的逻辑及封装类型不同,不同处理策略之间是存在差异的。
S140、运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
调整后的TensorFlow训练代码,是适用于进行基于数据并行的分布式训练的。运行调整后的TensorFlow训练代码,即可自动实现目标深度学习模型的Horovod分布式训练。
本发明实施例的技术方案,获取目标深度学习模型的TensorFlow训练代码之后,对训练代码的逻辑及封装类型进行分析,并根据与训练代码所属的逻辑及封装类型匹配的处理策略对训练代码进行调整,此时运行调整后的训练代码即可实现目标深度学习模型Horovod分布式训练,由此达到了在Tensorflow代码背景下,自动实现深度学习模型的Horovod分布式训练计算的技术效果,极大地减小了人工参与工作量,提高了工作效率。
需要指出的是,上述技术方案中进行Horovod分布式训练是可以基于异构加速平台实现的,如ROCm平台,以此能够促进和完善ROCm平台在人工智能分布式训练领域的发展。
实施例二
图2为本发明实施例二提供的一种深度学习模型的Horovod分布式训练方法的流程图,本实施例针对目标逻辑及封装类型为逻辑简单非高度封装的深度学习模型进行解释说明。其中,当所述目标逻辑及封装类型为逻辑简单非高度封装时,根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整,可以具体为:
在训练主文件中导入配置Tensorflow接口的Horovod模块;
初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
根据加速卡总数量按倍数增大学习率;
在与计算汇总操作对应的目标进程上保存检测点,并重新定义Tensorflow会话。
如图2所示,本实施例提供的深度学习模型的Horovod分布式训练方法,包括如下步骤:
S210、获取目标深度学习模型的TensorFlow训练代码。
S220、如果确定所述TensorFlow训练代码的目标逻辑及封装类型为逻辑简单非高度封装,则在训练主文件中导入配置Tensorflow接口的Horovod模块。
响应于训练主文件选择指令,在工程文件夹中确定目标深度学习模型的训练主文件,进而可以以训练主文件为基础进行Horovod分布式训练代码的改写。
在确定目标深度学习模型的训练主文件之后,打开训练主文件,并在训练主文件中导入配置Tensorflow接口的Horovod模块。
其中,打开训练主文件可以通过vim或vi等指令实现。
执行在训练主文件中导入配置Tensorflow接口的Horovod模块的操作时,首先获取import导入模块代码段的位置,并在import导入模块代码段之后添加以下代码段:import horovod.tensorflow as hvd,以此完成配置Tensorflow接口的Horovod模块的导入操作。
S230、初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定。
针对多个加速卡的情况,需要分别对每个加速卡进行配置参数设置,主要指的是config参数进行设置,并将每个加速卡与不同的进程进行一对一的绑定。
可选的,在训练主文件中查询定义主函数的关键字,如“def main():”,并获取其所在行下方一行代码的缩进,并按照相同缩进插入以下代码段,实现对对每个加速卡的配置参数设置以及与进程的一对一绑定。
hvd.init()
config=tf.ConfigProto()
config.gpu_options.allow_growth=True//用于实现对加速卡的配置参数设置
config.gpu_options.visible_device_list=str(hvd.local_rank())//用于实现对加速卡与进程的一对一绑定
若未查询到定义主函数的关键字,则可以根据主函数定义行确定指令确定主函数定义行,并获取主函数定义行下方一行代码的缩进,按照相同缩进插入以下代码段。
若未查询到定义主函数的关键字,也为接收到主函数定义行确定指令,则可以在import导入模块代码段之后插入上述用于实现对每个加速卡的配置参数设置以及与进程的一对一绑定的代码段。
S240、根据加速卡总数量按倍数增大学习率。
在本步骤中,更改优化器的设置,以实现增大学习率的效果,具体的,可以学习率的增大倍数可以按照加速卡的总数量确定。
作为一种可选的实施方式,在主训练文件中查找所有定义优化器的关键字,如“opt=tf.*Optimizer(*)”(不分区空格)。确定定义优化器的关键字,如“opt=tf.*Optimizer(*)”,出现的首个位置,将其作为该变量的定义位置,并获取当前行的缩进。
如果定义优化器的关键字有多个,则可以确定目标深度学习模型为多阶段训练,需要对在每个定义优化器的关键字处执行下述操作:
首先,在当前代码片段中查找学习率参数的关键字,如“self.learning_rate”或“self.lr”,并在学习率参数的关键字之后添加“*hvd.size()”,使学习率参数的关键字变为self.learning_rate*hvd.size()或self.lr*hvd.size()。
如果在当前代码片段中未查找到学习率参数的关键字,如“self.learning_rate”或“self.lr”,则获取Tensorflow优化器中默认的学习率参数,如tf.*Optimizer(*)括号中的第一个参数字符串,假设第一个参数字符串为str,则将第一个参数字符串替换为str*hvd.size()。
如果在当前代码片段中未查找到学习率参数的关键字,如“self.learning_rate”或“self.lr”,也未在Tensorflow优化器中获取到默认的学习率参数,则根据接收到的学习率参数指令,对相关学习率参数的关键字添加后缀“*hvd.size()”。
其次,在当前代码片段中获取定义优化器的关键字前面的字符串,如“=tf.*Optimizer(*)”前面的字符串,假设为opt。
最后,使用Horovod分布式优化器hvd.DistributedOptimizer封装原有的优化器optimizer,并广播初始变量值到与各个加速卡一对一绑定的所有进程。
可选的,可以在当前代码片段的下一行以相同缩进添加以下代码段实现优化器封装以及初始变量值的广播:
opt=hvd.DistributedOptimizer(opt)//使用Horovod分布式优化器hvd.DistributedOptimizer封装原有的优化器optimizer
hooks=[hvd.BroadcastGlobalVariablesHook(0)]//广播初始变量值到与各个加速卡一对一绑定的所有进程
S250、在与计算汇总操作对应的目标进程上保存检测点,并重新定义Tensorflow会话。
在本实施例中,只需要在与计算汇总操作(即Allgather和Allreduce操作)对应的目标进程或目标加速卡上保存检测点,如在worker 0上保存checkpoint。
作为一种可选的实施方式,查找检测点关键字,如“checkpoint_dir=”(不区分空格),并在当前代码行的末尾添加代码if hvd.rank()==0else None,以此实现仅在worker 0上保存checkpoint。
重新定义Tensorflow会话,使目标深度学习模式的计算图适于进行基于数据并行的分布式训练。
作为一种可选的实施方式,查找定义会话的关键字,如“self.sess=”(不区分空格),并将定义会话的关键字“self.sess=”后的代码段进行替换,以实现对Tensorflow会话的重定义,如“self.sess=”后的代码段进行替换为为“tf.train.MonitoredTrainingSession(config=config,hooks=hooks)”。
S260、运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
本实施例未尽详细解释之处请参见前述实施例,在此不再赘述。
上述技术方案,针对TensorFlow训练代码逻辑简单且非高度封装的目标深度学习模型提供了自动化实现深度学习模型的Horovod分布式训练计算的方式。
实施例三
图3为本发明实施例三提供的一种深度学习模型的Horovod分布式训练方法的流程图,本实施例针对目标逻辑及封装类型为逻辑复杂非高度封装的深度学习模型进行解释说明。其中,当所述目标逻辑及封装类型为逻辑复杂非高度封装时,根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整,可以具体为:
在训练主文件中导入配置Tensorflow接口的Horovod模块;
初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
广播初始变量值到与各加速卡绑定的所有进程,并重新定义Tensorflow会话;
根据加速卡总数量按倍数增大学习率。
如图3所示,本实施例提供的深度学习模型的Horovod分布式训练方法,包括如下步骤:
S310、获取目标深度学习模型的TensorFlow训练代码。
S320、如果确定所述TensorFlow训练代码的目标逻辑及封装类型为逻辑复杂非高度封装,则在训练主文件中导入配置Tensorflow接口的Horovod模块。
响应于训练主文件选择指令,在工程文件夹中确定目标深度学习模型的训练主文件,进而可以以训练主文件为基础进行Horovod分布式训练代码的改写。
在确定目标深度学习模型的训练主文件之后,打开训练主文件,并在训练主文件中导入配置Tensorflow接口的Horovod模块。
其中,打开训练主文件可以通过vim或vi等指令实现。
执行在训练主文件中导入配置Tensorflow接口的Horovod模块的操作时,首先获取import导入模块代码段的位置,并在import导入模块代码段之后添加以下代码段:import horovod.tensorflow as hvd,以此完成配置Tensorflow接口的Horovod模块的导入操作。
S330、初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定。
针对多个加速卡的情况,需要分别对每个加速卡进行配置参数设置,主要指的是config参数进行设置,并将每个加速卡与不同的进程进行一对一的绑定。
可选的,在训练主文件中查询定义类的关键字,如“class*:”,并进一步在类结构中查找定义构造方法的关键字,如“def__init__(*):”,并获取其所在行下方一行代码的缩进,并按照相同缩进插入以下代码段,实现对对每个加速卡的配置参数设置以及与进程的一对一绑定。
hvd.init()
config=tf.ConfigProto()
config.gpu_options.allow_growth=True//用于实现对加速卡的配置参数设置
config.gpu_options.visible_device_list=str(hvd.local_rank())//用于实现对加速卡与进程的一对一绑定
S340、广播初始变量值到与各加速卡绑定的所有进程,并重新定义Tensorflow会话。
广播初始变量值到与各加速卡一对一绑定的所有进程,并执行重新定义Tensorflow会话的操作,使目标深度学习模式的计算图适于进行基于数据并行的分布式训练。
作为一种可选的实施方式,查找定义会话的关键字,如“self.sess=”(不区分空格),确定其出现的首个位置(默认为该变量的定义位置),并在该位置处获取当前行的缩进。
可选的,广播初始变量值到与各加速卡一对一绑定的所有进程的操作,可以通过在当前行的上一行按同样缩进添加代码段hooks=[hvd.BroadcastGlobalVariablesHook(0)]来实现。
可选的,重新定义Tensorflow会话的操作,可以通过替换定义会话的关键字的值来实现,例如可以是将“self.sess=”(不区分空格)后的代码段替换为“tf.train.MonitoredTrainingSession(config=config,hooks=hooks)”。
S350、根据加速卡总数量按倍数增大学习率。
在本步骤中,更改优化器的设置,以实现增大学习率的效果,具体的,可以学习率的增大倍数可以按照加速卡的总数量确定。
作为一种可选的实施方式,在主训练文件中查找所有定义优化器的关键字,如“opt=tf.*Optimizer(*)”(不分区空格)。确定定义优化器的关键字,如“opt=tf.*Optimizer(*)”,出现的首个位置,将其作为该变量的定义位置,并获取当前行的缩进。
如果定义优化器的关键字有多个,则可以确定目标深度学习模型为多阶段训练,需要对在每个定义优化器的关键字处执行下述操作:
首先,在当前代码片段中查找学习率参数的关键字,如“self.learning_rate”或“self.lr”,并在学习率参数的关键字之后添加“*hvd.size()”,使学习率参数的关键字变为self.learning_rate*hvd.size()或self.lr*hvd.size()。
如果在当前代码片段中未查找到学习率参数的关键字,如“self.learning_rate”或“self.lr”,则获取Tensorflow优化器中默认的学习率参数,如tf.*Optimizer(*)括号中的第一个参数字符串,假设第一个参数字符串为str,则将第一个参数字符串替换为str*hvd.size()。
如果在当前代码片段中未查找到学习率参数的关键字,如“self.learning_rate”或“self.lr”,也未在Tensorflow优化器中获取到默认的学习率参数,则根据接收到的学习率参数指令,对相关学习率参数的关键字添加后缀“*hvd.size()”。
其次,在当前代码片段中获取定义优化器的关键字前面的字符串,如“=tf.*Optimizer(*)”前面的字符串,假设为opt。
最后,使用Horovod分布式优化器hvd.DistributedOptimizer封装原有的优化器optimizer。
可选的,可以在当前代码片段的下一行以相同缩进添加以下代码段实现优化器封装:
opt=hvd.DistributedOptimizer(opt)//使用Horovod分布式优化器hvd.DistributedOptimizer封装原有的优化器optimizer
S360、运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
进一步的,作为一种可选的实施方式,在运行调整后的TensorFlow训练代码时,还可以包括:若存在会话实体没有会话属性的报错函数,则在所述报错函数的定义行下方一行以与所述报错函数内部原代码段相同的缩进添加获取默认计算图的代码,并对所述报错函数内部原代码段整体增加缩进。
在运行调整后的TensorFlow训练代码时,若有函数报错会话实体没有会话属性(_session),如“Session‘object has no attribute’_session_”,则可以在报错函数定义行下方一行以与函数内部原代码段相同缩进添加获取默认计算图的代码,如“withself.sess.graph.as_default():”,并将原函数内部代码段整体增加缩进,由此解决了调整后的TensorFlow训练代码运行时存在会话实体没有会话属性的报错。
作为一种可选的实施方式,在运行调整后的TensorFlow训练代码时,还可以包括:若存在指示图形已完成且无法修改的报错,则在导入的所述配置Tensorflow接口的Horovod模块的下方一行添加清除默认图形堆栈并重置全局默认图形的代码段,并在会话定义处下方一行以相同缩进添加禁止图冻结的代码段。
在运行调整后的TensorFlow训练代码时,若有报错指示“图形已完成,无法修改”,如“Graph is finalized and cannot be modified”,则可以在导入的所述配置Tensorflow接口的Horovod模块的下方一行,如“import horovod.tensorflow as hvd”的下方一行,添加清除默认图形堆栈并重置全局默认图形的代码段,如“tf.reset_default_graph()”,并在会话定义处方一行,如代码“self.sess=tf.train.MonitoredTrainingSession(config=config,hooks=hooks)”的下方一行以相同缩进添加禁止图冻结的代码段,如添加代码段“self.sess.graph._unsafe_unfinalize()”指示禁止图冻结,由此解决了调整后的TensorFlow训练代码运行时指示“图形已完成,无法修改”的报错。
作为一种可选的实施方式,在运行调整后的TensorFlow训练代码时,还可以包括:若存在指示会话类型错误的报错,则在类定义内部构造方法函数外部以相同缩进添加新的会话函数代码段,并将报错代码段中的已有会话函数定义关键字替换为与所述新的会话函数代码段对应的会话函数定义关键字。
在运行调整后的TensorFlow训练代码时,若有会话类型错误的报错,如“TypeError:‘sess’must be a Session;”,则可以在类定义”class*:”内部构造方法函数“def__init__(*):”外部以相同缩进添加新的会话函数代码段,并将报错代码段中的已有会话函数定义关键字替换为与所述新的会话函数代码段对应的会话函数定义关键字。
例如,新的会话函数代码段可以为:
进而,可以将报错代码段中的“self.sess”替换为“self.get_session()”,由此解决了调整后的TensorFlow训练代码运行时会话类型错误的报错。
上述技术方案,提供了在调整后的TensorFlow训练代码运行时几种报错的解决方案,包括会话实体没有会话属性的报错、指示“图形已完成,无法修改”的报错和会话类型错误的报错。
本实施例未尽详细解释之处请参见前述实施例,在此不再赘述。
上述技术方案,针对TensorFlow训练代码逻辑复杂且非高度封装的目标深度学习模型提供了自动化实现深度学习模型的Horovod分布式训练计算的方式。
实施例四
图4为本发明实施例四提供的一种深度学习模型的Horovod分布式训练方法的流程图,本实施例针对目标逻辑及封装类型为逻辑简单高度封装或逻辑复杂高度封装的深度学习模型进行解释说明。其中,当所述目标逻辑及封装类型为逻辑简单高度封装或逻辑复杂高度封装时,根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整,可以具体为:
在训练主文件中导入配置Tensorflow接口的Horovod模块;
初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
查找引用高度封装应用程序接口的关键字,并使用重新设置的配置参数对所述关键字涉及的配置参数进行替换;
根据加速卡总数量按倍数增大学习率。
如图4所示,本实施例提供的深度学习模型的Horovod分布式训练方法,包括如下步骤:
S410、获取目标深度学习模型的TensorFlow训练代码。
S420、如果确定所述TensorFlow训练代码的目标逻辑及封装类型为逻辑简单高度封装或逻辑复杂高度封装,在训练主文件中导入配置Tensorflow接口的Horovod模块。
在本实施例中,由于TensorFlow训练代码是高度封装的,可以根据训练主文件的标志性代码识别工程文件夹中的训练主文件。
以使用Estimators高阶TensorFlow API确定TensorFlow训练代码为高度封装为例,是使用Estimators高阶TensorFlow API通过统一标准模式设置不同的值表示当前任务执行训练、验证或者预测。在项目工程文件夹中,训练主文件的标志性代码为tf.estimator.ModeKeys.TRAIN,进而可以根据该志性代码在项目工程文件夹中定位训练主文件。
作为一种可选的实施方式,在工程文件夹中,可以查找Estimators训练模式来定位训练主文件。可选的,可以通过指令find grep–rn“tf.estimator.ModeKeys.TRAIN”,查找文件名为“*train*.py”或“*main*.py”的文件作为训练主文件。若查找出多个文件,可通过筛查关键字的方法最终定位为唯一的训练主文件,若筛查后仍存在多个文件,则根据训练主文件选择指令定位训练主文件。
在确定目标深度学习模型的训练主文件之后,打开训练主文件,并在训练主文件中导入配置Tensorflow接口的Horovod模块。
其中,打开训练主文件可以通过vim或vi等指令实现。
执行在训练主文件中导入配置Tensorflow接口的Horovod模块的操作时,首先获取import导入模块代码段的位置,并在import导入模块代码段之后添加以下代码段:import horovod.tensorflow as hvd,以此完成配置Tensorflow接口的Horovod模块的导入操作。
S430、初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定。
针对多个加速卡的情况,需要分别对每个加速卡进行配置参数设置,主要指的是config参数进行设置,并将每个加速卡与不同的进程进行一对一的绑定。
作为一种可选的实施方式,当所述目标逻辑及封装类型为逻辑简单高度封装时,在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定,可以具体为:在基于定义主函数的关键字对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定。
可选的,在训练主文件中查询定义主函数的关键字,如“def main():”,并获取其所在行下方一行代码的缩进,并按照相同缩进插入以下代码段,实现对对每个加速卡的配置参数设置以及与进程的一对一绑定。
hvd.init()
config=tf.ConfigProto()
config.gpu_options.allow_growth=True//用于实现对加速卡的配置参数设置
config.gpu_options.visible_device_list=str(hvd.local_rank())//用于实现对加速卡与进程的一对一绑定
若未查询到定义主函数的关键字,则可以根据主函数定义行确定指令确定主函数定义行,并获取主函数定义行下方一行代码的缩进,按照相同缩进插入以下代码段。
若未查询到定义主函数的关键字,也为接收到主函数定义行确定指令,则可以在import导入模块代码段之后插入上述用于实现对每个加速卡的配置参数设置以及与进程的一对一绑定的代码段。
作为一种可选的实施方式,当所述目标逻辑及封装类型为逻辑复杂高度封装时,在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定,可以具体为:在基于定义类中定义构造方法的关键字对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定。
在训练主文件中查询定义类的关键字,如“class*:”,并进一步在类结构中查找定义构造方法的关键字,如“def__init__(*):”,并获取其所在行下方一行代码的缩进,并按照相同缩进插入以下代码段,实现对对每个加速卡的配置参数设置以及与进程的一对一绑定。
hvd.init()
config=tf.ConfigProto()
config.gpu_options.allow_growth=True//用于实现对加速卡的配置参数设置
config.gpu_options.visible_device_list=str(hvd.local_rank())//用于实现对加速卡与进程的一对一绑定
S440、查找引用高度封装应用程序接口的关键字,并使用重新设置的配置参数对所述关键字涉及的配置参数进行替换。
由于TensorFlow训练代码高度封装,会话在高阶TensorFlow API中被定义,每个加速卡的配置参数变量(config)需要对应到TensorFlow API中的运行配置实例,并作为会话配置对象传入高阶TensorFlow API。
以高阶TensorFlow API采用Estimator为例,由于TensorFlow训练代码高度封装,Session在tfestimator.Estimator中被定义,每个加速卡的配置参数变量(config)需要对应到tf.estimator中的RunConfig实例,并作为session_config对象传入tf.estimator内部。
在本实施例中,查找引用高度封装应用程序接口的关键字,如查找引用tf.estimator的关键字“tf.estimator.Estimator(*)”,确定其括号内部config参数的关键字“config”,若括号内部不存在config参数的关键字“config”,则将引用tf.estimator的关键字“tf.estimator.Estimator(*)”内的第三个参数字符串默认为config参数的关键字。进而,将基于引用tf.estimator的关键字“tf.estimator.Estimator(*)”确定的config参数的字符串修改为S430中重新设置的配置参数,如修改为“config=tf.estimator.RunConfig(session_config=config)”,以此实现了将每个加速卡的配置参数变量(config)对应到tf.estimator中的RunConfig实例,并作为session_config对象传入tf.estimator内部。
S450、根据加速卡总数量按倍数增大学习率。
在本步骤中,更改优化器的设置,以实现增大学习率的效果,具体的,可以学习率的增大倍数可以按照加速卡的总数量确定。
作为一种可选的实施方式,在主训练文件中查找所有定义优化器的关键字,如“opt=tf.*Optimizer(*)”(不分区空格)。确定定义优化器的关键字,如“opt=tf.*Optimizer(*)”,出现的首个位置,将其作为该变量的定义位置,并获取当前行的缩进。
当所述目标逻辑及封装类型为逻辑简单高度封装时,如果定义优化器的关键字有多个,则可以确定目标深度学习模型为多阶段训练,需要对在每个定义优化器的关键字处执行下述操作:
首先,在当前代码片段中查找学习率参数的关键字,如“self.learning_rate”或“self.lr”,并在学习率参数的关键字之后添加“*hvd.size()”,使学习率参数的关键字变为self.learning_rate*hvd.size()或self.lr*hvd.size()。
如果在当前代码片段中未查找到学习率参数的关键字,如“self.learning_rate”或“self.lr”,则获取Tensorflow优化器中默认的学习率参数,如tf.*Optimizer(*)括号中的第一个参数字符串,假设第一个参数字符串为str,则将第一个参数字符串替换为str*hvd.size()。
如果在当前代码片段中未查找到学习率参数的关键字,如“self.learning_rate”或“self.lr”,也未在Tensorflow优化器中获取到默认的学习率参数,则根据接收到的学习率参数指令,对相关学习率参数的关键字添加后缀“*hvd.size()”。
其次,在当前代码片段中获取定义优化器的关键字前面的字符串,如“=tf.*Optimizer(*)”前面的字符串,假设为opt。
最后,使用Horovod分布式优化器hvd.DistributedOptimizer封装原有的优化器optimizer,并广播初始变量值到与各个加速卡一对一绑定的所有进程。
可选的,可以在当前代码片段的下一行以相同缩进添加以下代码段实现优化器封装以及初始变量值的广播:
opt=hvd.DistributedOptimizer(opt)//使用Horovod分布式优化器hvd.DistributedOptimizer封装原有的优化器optimizer
hooks=[hvd.BroadcastGlobalVariablesHook(0)]//广播初始变量值到与各个加速卡一对一绑定的所有进程
当所述目标逻辑及封装类型为逻辑复杂高度封装时,如果定义优化器的关键字有多个,则可以确定目标深度学习模型为多阶段训练,需要对在每个定义优化器的关键字处执行下述操作:
首先,在当前代码片段中查找学习率参数的关键字,如“self.learning_rate”或“self.lr”,并在学习率参数的关键字之后添加“*hvd.size()”,使学习率参数的关键字变为self.learning_rate*hvd.size()或self.lr*hvd.size()。
如果在当前代码片段中未查找到学习率参数的关键字,如“self.learning_rate”或“self.lr”,则获取Tensorflow优化器中默认的学习率参数,如tf.*Optimizer(*)括号中的第一个参数字符串,假设第一个参数字符串为str,则将第一个参数字符串替换为str*hvd.size()。
如果在当前代码片段中未查找到学习率参数的关键字,如“self.learning_rate”或“self.lr”,也未在Tensorflow优化器中获取到默认的学习率参数,则根据接收到的学习率参数指令,对相关学习率参数的关键字添加后缀“*hvd.size()”。
其次,在当前代码片段中获取定义优化器的关键字前面的字符串,如“=tf.*Optimizer(*)”前面的字符串,假设为opt。
最后,使用Horovod分布式优化器hvd.DistributedOptimizer封装原有的优化器optimizer,并广播初始变量值到与各个加速卡一对一绑定的所有进程。
可选的,可以在当前代码片段的下一行以相同缩进添加以下代码段实现优化器封装以及初始变量值的广播:
opt=hvd.DistributedOptimizer(opt)//使用Horovod分布式优化器hvd.DistributedOptimizer封装原有的优化器optimizer
hooks=[hvd.BroadcastGlobalVariablesHook(0)]//广播初始变量值到与各个加速卡一对一绑定的所有进程
S460、运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
本实施例未尽详细解释之处请参见前述实施例,在此不再赘述。
上述技术方案,针对TensorFlow训练代码逻辑简单且高度封装的目标深度学习模型,以及逻辑复杂且高度封装的目标深度学习模型提供了自动化实现深度学习模型的Horovod分布式训练计算的方式。
实施例五
图5为本发明实施例五提供的一种深度学习模型的Horovod分布式训练装置的结构示意图,本实施例可适用于使深度学习模型自动实现Horovod分布式训练的情况,该装置可采用软件和/或硬件的方式实现,并一般可以集成在计算机设备中。如图5所示,该深度学习模型的Horovod分布式训练装置具体包括:训练代码获取模块510、逻辑及封装类型确定模块520、训练代码调整模块530和训练代码运行模块540。其中,
训练代码获取模块510,用于获取目标深度学习模型的TensorFlow训练代码;
逻辑及封装类型确定模块520,用于确定所述TensorFlow训练代码的目标逻辑及封装类型;
训练代码调整模块530,用于根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整;
训练代码运行模块540,用于运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
本发明实施例的技术方案,获取目标深度学习模型的TensorFlow训练代码之后,对训练代码的逻辑及封装类型进行分析,并根据与训练代码所属的逻辑及封装类型匹配的处理策略对训练代码进行调整,此时运行调整后的训练代码即可实现目标深度学习模型Horovod分布式训练,由此达到了在Tensorflow代码背景下,自动实现深度学习模型的Horovod分布式训练计算的技术效果,极大地减小了人工参与工作量,提高了工作效率。
可选的,所述目标逻辑及封装类型至少包括:逻辑简单非高度封装、逻辑复杂非高度封装、逻辑简单高度封装和逻辑复杂高度封装。
可选的,当所述目标逻辑及封装类型为逻辑简单非高度封装时,训练代码调整模块530,具体用于在训练主文件中导入配置Tensorflow接口的Horovod模块;初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;根据加速卡总数量按倍数增大学习率;在与计算汇总操作对应的目标进程上保存检测点,并重新定义Tensorflow会话。
可选的,当所述目标逻辑及封装类型为逻辑复杂非高度封装时,训练代码调整模块530,具体用于在训练主文件中导入配置Tensorflow接口的Horovod模块;初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;广播初始变量值到与各加速卡绑定的所有进程,并重新定义Tensorflow会话;根据加速卡总数量按倍数增大学习率。
进一步的,当所述目标逻辑及封装类型为逻辑复杂非高度封装时,上述装置还包括:报错调整模块,用于在运行调整后的TensorFlow训练代码时,若存在会话实体没有会话属性的报错函数,则在所述报错函数的定义行下方一行以与所述报错函数内部原代码段相同的缩进添加获取默认计算图的代码,并对所述报错函数内部原代码段整体增加缩进;若存在指示图形已完成且无法修改的报错,则在导入的所述配置Tensorflow接口的Horovod模块的下方一行添加清除默认图形堆栈并重置全局默认图形的代码段,并在会话定义处下方一行以相同缩进添加禁止图冻结的代码段;若存在指示会话类型错误的报错,则在类定义内部构造方法函数外部以相同缩进添加新的会话函数代码段,并将报错代码段中的已有会话函数定义关键字替换为与所述新的会话函数代码段对应的会话函数定义关键字。
可选的,当所述目标逻辑及封装类型为逻辑简单高度封装或逻辑复杂高度封装时,训练代码调整模块530,具体用于在训练主文件中导入配置Tensorflow接口的Horovod模块;初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;查找引用高度封装应用程序接口的关键字,并使用重新设置的配置参数对所述关键字涉及的配置参数进行替换;根据加速卡总数量按倍数增大学习率。
可选的,当所述目标逻辑及封装类型为逻辑简单高度封装时,训练代码调整模块530,具体用于在基于定义主函数的关键字对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;当所述目标逻辑及封装类型为逻辑复杂高度封装时,训练代码调整模块530,具体用于在基于定义类中定义构造方法的关键字对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定。
本发明实施例所提供的深度学习模型的Horovod分布式训练装置可执行本发明任意实施例所提供的深度学习模型的Horovod分布式训练方法,具备执行方法相应的功能模块和有益效果。
实施例六
图6为本发明实施例六提供的一种计算机设备的结构示意图,如图6所示,该计算机设备包括处理器610、存储器620、输入装置630和输出装置640;计算机设备中处理器610的数量可以是一个或多个,图6中以一个处理器610为例;计算机设备中的处理器610、存储器620、输入装置630和输出装置640可以通过总线或其他方式连接,图6中以通过总线连接为例。
存储器620作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的深度学习模型的Horovod分布式训练方法对应的程序指令/模块(例如,深度学习模型的Horovod分布式训练装置中的训练代码获取模块510、逻辑及封装类型确定模块520、训练代码调整模块530和训练代码运行模块540)。处理器610通过运行存储在存储器620中的软件程序、指令以及模块,从而执行计算机设备的各种功能应用以及数据处理,即实现上述的深度学习模型的Horovod分布式训练方法。
存储器620可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器620可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器620可进一步包括相对于处理器610远程设置的存储器,这些远程存储器可以通过网络连接至计算机设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置630可用于接收输入的数字或字符信息,以及产生与计算机设备的用户设置以及功能控制有关的键信号输入。输出装置640可包括显示屏等显示设备。
实施例七
本发明实施例七还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种深度学习模型的Horovod分布式训练方法,该方法包括:
获取目标深度学习模型的TensorFlow训练代码;
确定所述TensorFlow训练代码的目标逻辑及封装类型;
根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整;
运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的深度学习模型的Horovod分布式训练方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述深度学习模型的Horovod分布式训练装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种深度学习模型的Horovod分布式训练方法,其特征在于,包括:
获取目标深度学习模型的TensorFlow训练代码;
确定所述TensorFlow训练代码的目标逻辑及封装类型;
根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整;其中,所述目标逻辑及封装类型至少包括:逻辑简单非高度封装、逻辑复杂非高度封装、逻辑简单高度封装和逻辑复杂高度封装;当所述目标逻辑及封装类型为逻辑简单非高度封装时,根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整,包括:在训练主文件中导入配置Tensorflow接口的Horovod模块;初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;根据加速卡总数量按倍数增大学习率;在与计算汇总操作对应的目标进程上保存检测点,并重新定义Tensorflow会话;
运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
2.根据权利要求1所述的方法,其特征在于,当所述目标逻辑及封装类型为逻辑复杂非高度封装时,根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整,包括:
在训练主文件中导入配置Tensorflow接口的Horovod模块;
初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
广播初始变量值到与各加速卡绑定的所有进程,并重新定义Tensorflow会话;
根据加速卡总数量按倍数增大学习率。
3.根据权利要求2所述的方法,其特征在于,在运行调整后的TensorFlow训练代码时,还包括:
若存在会话实体没有会话属性的报错函数,则在所述报错函数的定义行下方一行以与所述报错函数内部原代码段相同的缩进添加获取默认计算图的代码,并对所述报错函数内部原代码段整体增加缩进;
若存在指示图形已完成且无法修改的报错,则在导入的所述配置Tensorflow接口的Horovod模块的下方一行添加清除默认图形堆栈并重置全局默认图形的代码段,并在会话定义处下方一行以相同缩进添加禁止图冻结的代码段;
若存在指示会话类型错误的报错,则在类定义内部构造方法函数外部以相同缩进添加新的会话函数代码段,并将报错代码段中的已有会话函数定义关键字替换为与所述新的会话函数代码段对应的会话函数定义关键字。
4.根据权利要求1所述的方法,其特征在于,当所述目标逻辑及封装类型为逻辑简单高度封装或逻辑复杂高度封装时,根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整,包括:
在训练主文件中导入配置Tensorflow接口的Horovod模块;
初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
查找引用高度封装应用程序接口的关键字,并使用重新设置的配置参数对所述关键字涉及的配置参数进行替换;
根据加速卡总数量按倍数增大学习率。
5.根据权利要求4所述的方法,其特征在于,当所述目标逻辑及封装类型为逻辑简单高度封装时,在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定,包括:
在基于定义主函数的关键字对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;
当所述目标逻辑及封装类型为逻辑复杂高度封装时,在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定,包括:
在基于定义类中定义构造方法的关键字对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定。
6.一种深度学习模型的Horovod分布式训练装置,其特征在于,包括:
训练代码获取模块,用于获取目标深度学习模型的TensorFlow训练代码;
逻辑及封装类型确定模块,用于确定所述TensorFlow训练代码的目标逻辑及封装类型;
训练代码调整模块,用于根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整;其中,所述目标逻辑及封装类型至少包括:逻辑简单非高度封装、逻辑复杂非高度封装、逻辑简单高度封装和逻辑复杂高度封装;当所述目标逻辑及封装类型为逻辑简单非高度封装时,训练代码调整模块,用于在训练主文件中导入配置Tensorflow接口的Horovod模块;初始化所述Horovod模块,并在对各加速卡进行配置参数设置之后,将各加速卡与进程进行一对一绑定;根据加速卡总数量按倍数增大学习率;在与计算汇总操作对应的目标进程上保存检测点,并重新定义Tensorflow会话;
训练代码运行模块,用于运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。
7.一种计算机设备,其特征在于,所述计算机设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110884863.XA CN113610241B (zh) | 2021-08-03 | 2021-08-03 | 深度学习模型的分布式训练方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110884863.XA CN113610241B (zh) | 2021-08-03 | 2021-08-03 | 深度学习模型的分布式训练方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113610241A CN113610241A (zh) | 2021-11-05 |
CN113610241B true CN113610241B (zh) | 2024-05-10 |
Family
ID=78339176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110884863.XA Active CN113610241B (zh) | 2021-08-03 | 2021-08-03 | 深度学习模型的分布式训练方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610241B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111340235A (zh) * | 2020-02-29 | 2020-06-26 | 苏州浪潮智能科技有限公司 | 一种兼容多种训练方式的深度学习分布式训练方法与系统 |
WO2020172825A1 (zh) * | 2019-02-27 | 2020-09-03 | 华为技术有限公司 | 一种确定传输策略的方法及装置 |
CN111767034A (zh) * | 2020-06-10 | 2020-10-13 | 钛星投资(深圳)有限公司 | 基于nfdt的分布式训练框架构建方法、分布式训练方法及系统 |
CN112698827A (zh) * | 2020-12-25 | 2021-04-23 | 厦门渊亭信息科技有限公司 | 一种分布式可视化建模平台和方法 |
CN112784959A (zh) * | 2021-01-13 | 2021-05-11 | 鹏城实验室 | 一种兼容多框架的深度学习模型快速搭建系统 |
-
2021
- 2021-08-03 CN CN202110884863.XA patent/CN113610241B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020172825A1 (zh) * | 2019-02-27 | 2020-09-03 | 华为技术有限公司 | 一种确定传输策略的方法及装置 |
CN111340235A (zh) * | 2020-02-29 | 2020-06-26 | 苏州浪潮智能科技有限公司 | 一种兼容多种训练方式的深度学习分布式训练方法与系统 |
CN111767034A (zh) * | 2020-06-10 | 2020-10-13 | 钛星投资(深圳)有限公司 | 基于nfdt的分布式训练框架构建方法、分布式训练方法及系统 |
CN112698827A (zh) * | 2020-12-25 | 2021-04-23 | 厦门渊亭信息科技有限公司 | 一种分布式可视化建模平台和方法 |
CN112784959A (zh) * | 2021-01-13 | 2021-05-11 | 鹏城实验室 | 一种兼容多框架的深度学习模型快速搭建系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113610241A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105956021B (zh) | 一种适用于分布式机器学习的自动化任务并行的方法及其系统 | |
Hnat et al. | Macrolab: a vector-based macroprogramming framework for cyber-physical systems | |
CN107430611B (zh) | 过滤数据沿袭图 | |
CN102103497B (zh) | 有限状态机执行装置和方法、在应用中的建立和使用方法 | |
CN107251021B (zh) | 过滤数据沿袭图 | |
US20130067443A1 (en) | Parallel Processing Development Environment Extensions | |
CN109447276B (zh) | 一种机器学习系统、设备及应用方法 | |
US20160283610A1 (en) | Hybrid flows containing a continous flow | |
US8938443B2 (en) | Runtime optimization of spatiotemporal events processing | |
US9922133B2 (en) | Live topological query | |
CN111708641A (zh) | 一种内存管理方法、装置、设备及计算机可读存储介质 | |
CN112965710A (zh) | 计算图的处理方法、装置和系统 | |
CN114691658A (zh) | 一种数据回溯方法、装置、电子设备及存储介质 | |
CN111399911A (zh) | 一种基于多核异构计算的人工智能开发方法及装置 | |
US10303558B2 (en) | Checkpointing higher order query operators | |
CN112637263A (zh) | 一种多数据中心资源优化提升方法、系统和存储介质 | |
CN111240772A (zh) | 一种基于区块链的数据处理方法、装置及存储介质 | |
US20240134697A1 (en) | Hardware acceleration for function processing | |
CN107679107B (zh) | 一种基于图数据库的电网设备可达性查询方法及系统 | |
CN113610241B (zh) | 深度学习模型的分布式训练方法、装置、设备及存储介质 | |
CN116484947B (zh) | 算子的自动生成方法、装置、设备及介质 | |
CN112148343A (zh) | 规则发布方法、装置及终端设备 | |
US10417228B2 (en) | Apparatus and method for analytical optimization through computational pushdown | |
CN108710504A (zh) | 数据库操作方法及装置 | |
CN116107669A (zh) | 深度学习框架的算子注册方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |