CN110647999A - 一种基于拓扑结构提高深度学习训练速度的方法及装置 - Google Patents

一种基于拓扑结构提高深度学习训练速度的方法及装置 Download PDF

Info

Publication number
CN110647999A
CN110647999A CN201910785997.9A CN201910785997A CN110647999A CN 110647999 A CN110647999 A CN 110647999A CN 201910785997 A CN201910785997 A CN 201910785997A CN 110647999 A CN110647999 A CN 110647999A
Authority
CN
China
Prior art keywords
gpu
deep learning
priority
learning training
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201910785997.9A
Other languages
English (en)
Inventor
王超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Wave Intelligent Technology Co Ltd
Original Assignee
Suzhou Wave Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Wave Intelligent Technology Co Ltd filed Critical Suzhou Wave Intelligent Technology Co Ltd
Priority to CN201910785997.9A priority Critical patent/CN110647999A/zh
Publication of CN110647999A publication Critical patent/CN110647999A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Multi Processors (AREA)

Abstract

本发明为了解决现有技术中存在的问题,创新提出了一种基于拓扑结构提高深度学习训练速度的方法,包括:获取CPU以及GPU的拓扑信息;根据训练任务判断所需GPU的数量、GPU优先级关系、CPU以及GPU的拓扑关系,选择与GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务,本发明还提出了一种基于拓扑结构提高深度学习训练速度的装置,通过将与GPU具有互联关系的CPU和GPU绑定执行训练任务,省去GPU和不直接互联的CPU的通讯时间和带宽限制,有效提高了深度学习训练任务速度,降低训练任务所需时间,提高的深度学习训练的效率。

Description

一种基于拓扑结构提高深度学习训练速度的方法及装置
技术领域
本发明涉及深度学习领域,尤其是涉及一种基于拓扑结构提高深度学习训练速度的方法及装置。
背景技术
近年来深度学习发展迅速,图像处理、语音识别等领域都取得了飞速发展。例如在图片识别上,神经网络结构快速演进,分类的网络结构迅速发展。随着模型层次越来越深,参数越来越多,模型能力也越来越强,随着模型复杂度不断增长、训练样本的指数级增长。
深度学习训练任务,尤其对于复杂模型和大规模数据集训练会耗费大量时间,并且现今的主流深度学习框架在单机和分布式训练过程中都会有使用GPU和CPU来处理不同的过程。如利用GPU进行矩阵计算和张量操作等,而CPU则进行一部分简单的训练数据的预处理和梯度处理、消息广播等任务。
但是如何提高深度学习训练任务速度,降低训练任务所需时间,尤其对于复杂模型和大规模数据集训练,目前现有技术中并未有相关的方法解决。
发明内容
本发明为了解决现有技术中存在的问题,创新提出了一种基于拓扑结构提高深度学习训练速度的方法及装置,有效提高了深度学习训练任务速度,降低训练任务所需时间,提高的深度学习训练的效率。
本发明第一方面提供了一种基于拓扑结构提高深度学习训练速度的方法,包括:
获取CPU以及GPU的拓扑信息并进行保存;
根据训练任务判断所需GPU是否为一个,如果判断结果为是,根据拓扑信息,选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务;
如果判断结果为否,根据GPU拓扑信息确定GPU的优先级关系,根据所述GPU的优先级关系确定GPU的编号,根据确定的GPU编号依次选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务。
结合第一方面,在第一方面第一种可能的实现方式中,所述训练任务包括单机单卡任务以及单机多卡任务,其中单机单卡任务为单个计算设备单个GPU完成的训练任务,所述单机多卡任务为单个计算设备多个GPU完成的训练任务。
结合第一方面,在第一方面第二种可能的实现方式中,进一步地,所述保存形式为数据库或列表。
结合第一方面,在第一方面第三种可能的实现方式中,所述GPU的优先级关系具体包括:第一优先级为具有nvlink方式连接的GPU,第二优先级为具有PCIE switch方式连接的GPU,第三优先级为具有PCIE方式连接的GPU,其中,第一优先级高于第二优先级,第二优先级高于第三优先级。
进一步地,所述第二优先级中PCIE switch方式具体包括PIX模式,PXB模式。
结合第一方面,在第一方面第四种可能的实现方式中,所述第三优先级中PCIE方式具体包括PHB模式,NODE模式,SYS模式。
结合第一方面,在第一方面第五种可能的实现方式中,当训练任务判断所需GPU为一个时,根据拓扑信息,和所述GPU进行绑定的CPU数目为4个。
结合第一方面,在第一方面第六种可能的实现方式中,选取与GPU的绑定的CPU两两不同。
本发明第二方面提供了一种基于拓扑结构提高深度学习训练速度的装置,包括:
获取模块,获取CPU以及GPU的拓扑信息并进行保存;
判断模块,根据训练任务判断所需GPU是否为一个,如果判断结果为是,根据拓扑信息,选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务;
多卡选择模块,如果判断结果为否,根据GPU拓扑信息确定GPU的优先级关系,根据所述GPU的优先级关系确定GPU的编号,根据确定的GPU编号依次选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务。
本发明采用的技术方案包括以下技术效果:
本发明省去GPU和不直接互联的CPU的通讯时间和带宽限制,有效提高了深度学习训练任务速度,降低训练任务所需时间,提高的深度学习训练的效率。
应当理解的是以上的一般描述以及后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
为了更清楚说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单介绍,显而易见的,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明方案中实施例一方法的流程示意图;
图2为本发明方案中实施例二装置的结构示意图。
具体实施方式
为能清楚说明本方案的技术特点,下面通过具体实施方式,并结合其附图,对本发明进行详细阐述。下文的公开提供了许多不同的实施例或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。此外,本发明可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施例和/或设置之间的关系。应当注意,在附图中所图示的部件不一定按比例绘制。本发明省略了对公知组件和处理技术及工艺的描述以避免不必要地限制本发明。
实施例一
如图1所示,本发明提供了一种基于拓扑结构提高深度学习训练速度的方法,包括:
S1,获取CPU以及GPU的拓扑信息并进行保存;
S2,根据训练任务判断所需GPU是否为一个,如果判断结果为是,执行步骤S3;如果判断结果为否,执行步骤S4;
S3,根据拓扑信息,选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务;
S4,根据GPU拓扑信息确定GPU的优先级关系,根据所述GPU的优先级关系确定GPU的编号,根据确定的GPU编号依次选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务。
在步骤S1中通过nvidia驱动工具收集计算设备(例如服务器等)的CPU和GPU的拓扑信息,保存形式为数据库或列表,对获取的拓扑信息进行记录保存,以供后期任务提交查询时使用。。
在步骤S2中,其中,训练任务包括单机单卡任务以及单机多卡任务,其中单机单卡任务为单个计算设备单个GPU完成的训练任务,单机多卡任务为单个计算设备多个GPU完成的训练任务。根据训练任务将所需要的GPU的数目分为单机单卡(单个计算设备单个GPU)以及单机多卡(单个计算设备多个GPU),判断所需GPU是否为一个,如果判断结果为是,则为单机单卡任务,如果判断结果为否,则为单机多卡任务。
在步骤S3中,在训练任务配置时,然后在拓扑信息找到该GPU(用户可以指定,如不指定则按默认顺序指定,默认顺序为预先存储在计算设备数据库中,顺序可以根据GPU编号,也可以根据其他规则),如果用户指定CPU的个数,则选择相应数量的与该GPU具有互联关系(具有亲和性)的CPU和所述GPU进行绑定,如果用户没有指定CPU个数,则默认1个GPU配备4个CPU(经过实际测试后,该数量具有最好的加速效果),在与该GPU具有互联关系(具有亲和性)的CPU中选择4个和所述GPU进行绑定,一起进行训练任务。
在步骤S4中,根据GPU拓扑信息确定GPU的优先级关系,根据所述GPU的优先级关系确定GPU的编号,根据确定的GPU编号依次选择与该GPU具有互联关系的CPU和所述GPU进行绑定,其中,选择CPU时,根据用户指定CPU的个数,则从该GPU具有互联关系(具有亲和性)的CPU中选择相应数量的CPU,执行深度学习训练任务。例如根据优先级关系选择GPU0、GPU1、GPU2,与GPU0具有互联关系的CPU为CPU0、CPU1、CPU2、CPU3,与GPU1具有互联关系的CPU为CPU4、CPU5、CPU6、CPU7、CPU8、CPU9、CPU10、CPU11,与GPU2具有互联关系的CPU为CPU4、CPU5、CPU6、CPU7、CPU8、CPU9、CPU10、CPU11,用户指定的CPU的数量为2个,则可以选取与GPU0具有互联关系的CPU0、CPU1和GPU0绑定,可以选取与GPU1具有互联关系的CPU4、CPU5和GPU1绑定,可以选取与GPU2具有互联关系的CPU6、CPU7,和GPU2绑定,一起执行训练任务。
优选地,选取与GPU的绑定的CPU两两不同,这样CPU绑定使用可以做到独占模式,将会更大的提高训练速度。
其中,GPU的优先级关系具体包括:第一优先级为具有nvlink方式连接的GPU,第二优先级为具有PCIE switch方式连接的GPU,第三优先级为具有PCIE方式连接的GPU,其中,第一优先级高于第二优先级,第二优先级高于第三优先级。
第一优先级中nvlink方式具体包括NV模式。第二优先级中PCIEswitch方式具体包括PIX模式(connection traversing a single PCIE switch,通过单个PCIE总线的连接),PXB模式(connection traversing multiple PCIE switches(without traversing thePCIE host bridge),跨越多个PCIE总线的连接(不跨PCIE主机桥))。第三优先级中PCIE方式具体包括PHB(connection traversing PCIE as well as a PCIE host bridge(typically the CPU),通过PCIe和PCIe主机桥(通常是CPU)的连接)模式,NODE模式,SYS模式。
Figure BDA0002178007010000071
如上表一所示,以计算设备包含3GPU+72逻辑核心)的cpu和gpu的拓扑结构为例进行说明,其中,X表示self,SYS模式表示
connection traversing PCIE as well as the SMP interconnect betweenNUMA nodes,eg QPI/UPI(通过PCIe的连接以及NUMA节点之间的SMP互连,例如QPI(QuickPath Interconnect,快速通道互联)总线或UPI(Intel Ultra Path Interconnect,英特尔超路径连接)总线),NODE模式表示connection traversing PCIE as wellas theinterconnect between PCIE host bridge within a NUMAnode(通过PCIe的连接以及NUMA节点内PCIe主机桥之间的互连),从图中可以看出在没有使用nvidia的nvlink技术(GPU互联技术)的设备上,GPU和CPU之间具有一定的拓扑结构,如gGPU0和CPU(0-17,36-53)相互直接互通,GPU1和CPU(18-35,54-71)直接互通,而且GPU与GPU之间的互联也是不同方式的(SYS模式和NODE模式),这样在具体深度学习训练任务时就可以将直接互联的CPU和GPU组合使用,这样就省去GPU和不直接互联的CPU的通讯时间和带宽限制。
以下是一组以表一的拓扑结构,GPU和与GPU具有互联关系的CPU经过绑定的测试结果:
第一组:GPU0和GPU1一起使用,并且绑定编号在18-32之间的CPU(即没有互联关系的CPU),训练速度为:331images/s;
第二组:GPU1和GPU2一起使用,并且绑定编号在18-32之前的CPU,(即具有互联关系的CPU),训练速度为:361images/s;
可以看出第二组训练速度361images/s相比于331images/s,提高了约有10%,所使用的CPU均与GPU1,GPU2具有互联关系(亲和性),减少了数据在不同拓扑结构间的CPU和GPU传输,所以能够提升训练速度,并且两组测试结果均是在GPU和GPU之间使用传统的PCIE连接方式进行的,如果使用PCIE switch或者nvlink的方式则会提升的更多。
Figure BDA0002178007010000081
Figure BDA0002178007010000091
如上表二所示,其中NV1表示connection traversing a bondedset of 1nvlinks(GPU之间通过一组NVLink链路连接),NV2表示connection traversing a bondedset of 2 nvlinks(GPU之间通过两组NVLink链路连接)。在具有大量CPU和GPU的设备上,其拓扑结构会更加复杂,GPU具有nvlink技术并且进行了互联,这样需要充分考虑到GPU和GPU,GPU和CPU的拓扑关系来达最佳的组合。
本发明通过将与GPU具有互联关系的CPU和GPU绑定执行训练任务,省去GPU和不直接互联的CPU的通讯时间和带宽限制,有效提高了深度学习训练任务速度,降低训练任务所需时间,提高的深度学习训练的效率。
实施例二
如图2所示,本发明技术方案还提供了一种基于拓扑结构提高深度学习训练速度的装置,包括:
获取模块101,获取CPU以及GPU的拓扑信息并进行保存;
判断模块102,根据训练任务判断所需GPU是否为一个,如果判断结果为是,根据拓扑信息,选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务;
多卡选择模块103,如果判断结果为否,根据GPU拓扑信息确定GPU的优先级关系,根据所述GPU的优先级关系确定GPU的编号,根据确定的GPU编号依次选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务。
本发明通过将与GPU具有互联关系的CPU和GPU绑定执行训练任务,省去GPU和不直接互联的CPU的通讯时间和带宽限制,有效提高了深度学习训练任务速度,降低训练任务所需时间,提高的深度学习训练的效率。
本发明技术方案主要是对单个计算设备中包含的CPU以及GPU拓扑结构进行分析,即单机单卡以及单机多卡,对多个计算设备(即多机多卡)也有一定的借鉴意义。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (9)

1.一种基于拓扑结构提高深度学习训练速度的方法,其特征是,包括:
获取CPU以及GPU的拓扑信息并进行保存;
根据训练任务判断所需GPU是否为一个,如果判断结果为是,根据拓扑信息,选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务;
如果判断结果为否,根据GPU拓扑信息确定GPU的优先级关系,根据所述GPU的优先级关系确定GPU的编号,根据确定的GPU编号依次选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务。
2.根据权利要求1所述的基于拓扑结构提高深度学习训练速度的方法,其特征是,所述训练任务包括单机单卡任务以及单机多卡任务,其中单机单卡任务为单个计算设备单个GPU完成的训练任务,所述单机多卡任务为单个计算设备多个GPU完成的训练任务。
3.根据权利要求1所述的基于拓扑结构提高深度学习训练速度的方法,其特征是,所述保存形式为数据库或列表。
4.根据权利要求1所述的基于拓扑结构提高深度学习训练速度的方法,其特征是,所述GPU的优先级关系具体包括:第一优先级为具有nvlink方式连接的GPU,第二优先级为具有PCIE switch方式连接的GPU,第三优先级为具有PCIE方式连接的GPU,其中,第一优先级高于第二优先级,第二优先级高于第三优先级。
5.根据权利要求4所述的基于拓扑结构提高深度学习训练速度的方法,其特征是,所述第二优先级中PCIE switch方式具体包括PIX模式,PXB模式。
6.根据权利要求4所述的基于拓扑结构提高深度学习训练速度的方法,其特征是,所述第三优先级中PCIE方式具体包括PHB模式,NODE模式,SYS模式。
7.根据权利要求1所述的基于拓扑结构提高深度学习训练速度的方法,其特征是,当训练任务判断所需GPU为一个时,根据拓扑信息,和所述GPU进行绑定的CPU数目为4个。
8.根据权利要求1所述的基于拓扑结构提高深度学习训练速度的方法,其特征是,选取与GPU的绑定的CPU两两不同。
9.一种基于拓扑结构提高深度学习训练速度的装置,其特征是,包括:
获取模块,获取CPU以及GPU的拓扑信息并进行保存;
判断模块,根据训练任务判断所需GPU是否为一个,如果判断结果为是,根据拓扑信息,选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务;
多卡选择模块,如果判断结果为否,根据GPU拓扑信息确定GPU的优先级关系,根据所述GPU的优先级关系确定GPU的编号,根据确定的GPU编号依次选择与该GPU具有互联关系的CPU和所述GPU进行绑定,执行深度学习训练任务。
CN201910785997.9A 2019-08-23 2019-08-23 一种基于拓扑结构提高深度学习训练速度的方法及装置 Withdrawn CN110647999A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910785997.9A CN110647999A (zh) 2019-08-23 2019-08-23 一种基于拓扑结构提高深度学习训练速度的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910785997.9A CN110647999A (zh) 2019-08-23 2019-08-23 一种基于拓扑结构提高深度学习训练速度的方法及装置

Publications (1)

Publication Number Publication Date
CN110647999A true CN110647999A (zh) 2020-01-03

Family

ID=68990437

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910785997.9A Withdrawn CN110647999A (zh) 2019-08-23 2019-08-23 一种基于拓扑结构提高深度学习训练速度的方法及装置

Country Status (1)

Country Link
CN (1) CN110647999A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111488987A (zh) * 2020-04-16 2020-08-04 苏州浪潮智能科技有限公司 一种深度学习大模型训练的方法、系统、设备及介质
CN111882056A (zh) * 2020-06-19 2020-11-03 苏州浪潮智能科技有限公司 一种基于副本模式的深度学习训练任务管控方法及装置
CN112256623A (zh) * 2020-10-26 2021-01-22 曙光信息产业(北京)有限公司 一种基于异构系统的处理性能优化方法及装置
CN112269656A (zh) * 2020-10-16 2021-01-26 山东云海国创云计算装备产业创新中心有限公司 一种基于多核处理器的应用配置方法、装置和系统
CN113377520A (zh) * 2021-07-07 2021-09-10 北京百度网讯科技有限公司 资源调度方法、装置、设备以及存储介质
CN113688989A (zh) * 2021-08-31 2021-11-23 中国平安人寿保险股份有限公司 深度学习网络加速方法、装置、设备及存储介质
CN114884908A (zh) * 2022-04-29 2022-08-09 浪潮电子信息产业股份有限公司 一种数据同步方法、装置、设备及存储介质
WO2023050712A1 (zh) * 2021-09-30 2023-04-06 苏州浪潮智能科技有限公司 一种深度学习业务的任务调度方法及相关装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111488987A (zh) * 2020-04-16 2020-08-04 苏州浪潮智能科技有限公司 一种深度学习大模型训练的方法、系统、设备及介质
CN111488987B (zh) * 2020-04-16 2022-12-06 苏州浪潮智能科技有限公司 一种深度学习大模型训练的方法、系统、设备及介质
CN111882056B (zh) * 2020-06-19 2022-07-08 苏州浪潮智能科技有限公司 一种基于副本模式的深度学习训练任务管控方法及装置
CN111882056A (zh) * 2020-06-19 2020-11-03 苏州浪潮智能科技有限公司 一种基于副本模式的深度学习训练任务管控方法及装置
CN112269656A (zh) * 2020-10-16 2021-01-26 山东云海国创云计算装备产业创新中心有限公司 一种基于多核处理器的应用配置方法、装置和系统
CN112269656B (zh) * 2020-10-16 2022-12-02 山东云海国创云计算装备产业创新中心有限公司 一种基于多核处理器的应用配置方法、装置和系统
CN112256623A (zh) * 2020-10-26 2021-01-22 曙光信息产业(北京)有限公司 一种基于异构系统的处理性能优化方法及装置
CN113377520A (zh) * 2021-07-07 2021-09-10 北京百度网讯科技有限公司 资源调度方法、装置、设备以及存储介质
CN113688989A (zh) * 2021-08-31 2021-11-23 中国平安人寿保险股份有限公司 深度学习网络加速方法、装置、设备及存储介质
CN113688989B (zh) * 2021-08-31 2024-04-19 中国平安人寿保险股份有限公司 深度学习网络加速方法、装置、设备及存储介质
WO2023050712A1 (zh) * 2021-09-30 2023-04-06 苏州浪潮智能科技有限公司 一种深度学习业务的任务调度方法及相关装置
CN114884908A (zh) * 2022-04-29 2022-08-09 浪潮电子信息产业股份有限公司 一种数据同步方法、装置、设备及存储介质
CN114884908B (zh) * 2022-04-29 2024-02-13 浪潮电子信息产业股份有限公司 一种数据同步方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN110647999A (zh) 一种基于拓扑结构提高深度学习训练速度的方法及装置
Das et al. Distributed deep learning using synchronous stochastic gradient descent
CN104246759B (zh) 应用程序接口测试服务
DE102019106669A1 (de) Verfahren und anordnungen zum verwalten von speicher in kaskadierten neuronalen netzen
CN107526645B (zh) 一种通信优化方法及系统
KR102505279B1 (ko) 복수의 cpu 및 복수의 gpu를 지원하는 컴퓨팅 환경에서의 연산 방법
CN107870845A (zh) 面向微服务架构应用的管理方法及系统
DE112012000212T5 (de) Technik für live Analyse-basierte Rematerialisation zur Reduktion von Registerdruck und zur Verbesserung von Parallelität
US20210373799A1 (en) Method for storing data and method for reading data
TW202011223A (zh) 分散式資料連接處理方法、裝置、設備及儲存媒體
DE102010044531A1 (de) Autonome Speicherarchitektur
CN104102549B (zh) 一种实现多线程互斥操作的方法、装置和芯片
CN108596273A (zh) 一种皮肤病图像分类方法
CN111814959A (zh) 模型训练数据的处理方法、装置、系统和存储介质
CN114661480A (zh) 深度学习任务资源分配方法和系统
WO2009070912A1 (en) Modifying system routing information in link based systems
CN105335135B (zh) 数据处理方法和中心节点
CN115758989B (zh) 用于修复数字芯片版图设计规则时序违例的方法及系统
CN110908644B (zh) 状态节点的配置方法、装置、计算机设备和存储介质
CN115037651B (zh) 一种rdma带宽传输测试方法、系统及存储介质
WO2023109086A1 (zh) 文字识别方法、装置、设备及存储介质
DE112023000088T5 (de) Selektive kommunikationsschnittstellen für programmierbare teile
CN109829004A (zh) 基于无人车的数据处理方法、装置、设备以及存储介质
CN109298974A (zh) 系统控制方法、装置、计算机及计算机可读存储介质
CN111027196B (zh) 一种电力设备的仿真分析任务处理方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200103