CN113469341A - 一种基于版本差异的流水线并行训练节点权重分配方法 - Google Patents
一种基于版本差异的流水线并行训练节点权重分配方法 Download PDFInfo
- Publication number
- CN113469341A CN113469341A CN202110766607.0A CN202110766607A CN113469341A CN 113469341 A CN113469341 A CN 113469341A CN 202110766607 A CN202110766607 A CN 202110766607A CN 113469341 A CN113469341 A CN 113469341A
- Authority
- CN
- China
- Prior art keywords
- node
- weight
- training
- batch
- version
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 91
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000009826 distribution Methods 0.000 title claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 claims abstract description 23
- 238000012546 transfer Methods 0.000 claims abstract description 23
- 238000004519 manufacturing process Methods 0.000 claims abstract description 6
- 238000013136 deep learning model Methods 0.000 claims abstract description 5
- 230000005540 biological transmission Effects 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3867—Concurrent instruction execution, e.g. pipeline or look ahead using instruction pipelines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开一种基于版本差异的流水线并行训练节点权重分配方法,载入初始化深度学习模型;构建流水线并行训练方案,采用异步参数更新方法,并发执行不同批次的训练,记录训练批次在单位流水线执行时间内完成前向和后向传递过程。利用最新的训练节点权重版本,预测出未来训练过程的节点权重,根据节点权重预测进行该批次版本差异计算。待该节点完成所有批次的版本差异计算,则完成该节点的预测权重更新。计算了所有节点的版本差异,即完成流水线并行训练节点权重分配;并将其部署到异构计算节点中,得到针对拟训练目标网络的流水线并行训练节点权重分配方案。本发明方法使节点权重预测更加准确。
Description
技术领域
本发明涉及一种基于版本差异的流水线并行训练节点权重分配方法,属于计算机流水线系统优化技术领域。
背景技术
深度神经网络广泛应用于各种领域,取得了超越人类的预测效果。随着模型的精度等要求越来越高,模型参数规模和计算需求越来越大,训练模型成为一个计算十分密集和耗时的任务。研究人员经常使用分布式计算机集群加速模型训练过程。分布式深度学习并行训练致力于加速DNN模型训练过程,已被很多学者研究。其中,流水线并行训练研究越来越深入。流水线并行训练可以解决数据并行的通信瓶颈与模型并行的计算资源浪费问题。然而,朴素流水线并行训练存在权重陈旧问题,影响模型收敛。在单机训练过程中,每个训练批次的前向传递与后向传递都是基于最新的权值进行计算的。与单机训练不同,流水线系统中每个批次的前向与后向传递计算在多个计算节点上跨多个时间单位执行。流水线系统同时处理多个批次的数据,后处理的批次在先处理的批次更新权值之前就开始其训练过程。每个批次在前向和后向传递计算的整个过程中使用了不同版本的权重。每个节点都存在权重陈旧问题,这种权重陈旧性会导致DNN模型训练不稳定、模型精度下降,甚至无法完成收敛。针对权重陈旧问题,研究更加精确的节点权重预测方法,具有重要意义。
发明内容
发明目的:为了解决流水线并行训练中的节点权重陈旧性和现有节点权重预测方法精度低的问题,本发明提供一种基于版本差异的流水线并行训练节点权重分配方法,以异步流水线并行训练为基础,使节点权重预测更加准确,进一步促进提高深度学习模型精度,保证模型训练的有效性。
技术方案:一种基于版本差异的流水线并行训练节点权重分配方法,包括如下步骤:
(1)初始化深度学习模型,并把该模型载入;
(2)构建流水线并行训练方案,采用异步参数更新方法,并发执行不同节点中不同批次的训练,记录各个训练批次在单位流水线执行时间内完成前向和后向传递过程;
(3)利用最新的训练节点权重版本,预测出未来训练过程中的节点权重;
(4)根据节点权重预测进行当前批次版本差异计算;
(5)判断当前批次计算得到的前向与后向传递版本差异值是否为0,是则不更新节点预测权重,否则根据版本差异进行权重更新;
(6)判断该节点是否完成所有批次的版本差异计算,是则完成该节点的预测权重更新,否则返回步骤(3)-(5)继续迭代;
(7)判断所有节点的版本差异计算是否全部完成,是则完成流水线并行训练节点权重分配,否则返回步骤(6)继续迭代;
(8)按照上述权重分配方案将其部署到异构计算节点中,得到针对拟训练目标网络的流水线并行训练节点权重分配方案。
进一步的,所述步骤(2)中单位流水线执行时间主要指前向传递和后向传递计算时间之和。
进一步的,所述步骤(3)中预测未来训练过程节点权重的具体步骤如下:
(3.1)预测未来训练过程节点权重的下降梯度;
(3.2)计算下一时刻的节点权重值。
进一步的,所述步骤(4)中进行当前批次版本差异计算的具体步骤如下:
(4.1)计算当前批次执行前向传递时所处阶段的版本差异;
(4.2)计算当前批次执行后向传递时所处阶段的版本差异。
进一步的,所述步骤(3.1)中预测未来训练过程权重的下降梯度的具体步骤如下:
定义关于t-1时刻参数θt-1的目标函数为f(θt-1),计算f(θt-1)的梯度gt,其公式为:
对于历史梯度计算的一阶矩估计mt和二阶矩估计nt,其公式为:
mt=μmt-1+(1-μ)gt
定义预测时刻t的下降梯度ΔWt,其公式为:
进一步的,所述步骤(3.2)中计算下一时刻的节点权重值的具体步骤如下:
计算从t时刻到t+1时刻的节点权重更新,其公式为:
Wt+1=Wt-η·ΔWt
其中η是学习率,ΔWt为t时刻的下降梯度。假设一个批次在t时刻完成其往返训练过程。因此,计算t+1时刻的节点预测权重的公式为:
进一步的,所述步骤(4.1)中计算该批次执行前向传递时所处阶段的版本差异的具体步骤如下:
当该批次执行前向传递计算时,当前所处阶段的版本差异s的计算公式为:
其中,index为当前计算节点编号(从0开始),N为流水线系统计算节点数量。
进一步的,所述步骤(4.2)中计算该批次执行后向传递时所处阶段的版本差异的具体步骤如下:
当该批次在后向传递过程时,当前所处阶段的版本差异s的计算公式为:
其中,index为当前计算节点编号(从0开始)。
进一步的,所述步骤(5)中根据版本差异进行节点权重更新的具体步骤如下:
考虑流水线中不同阶段完成某批次训练所需时间不同,计算未来t+k时刻节点权重的公式为:
其中s为权重版本差异,即该阶段中当前批次所处时间与该批次完成后向传递时间单位之差。权重版本差异s可以根据当前阶段序号、流水线阶段总数计算得出。通过在前向后向传递中使用计算得到节点的预测权重代替陈旧的节点权重。
一种计算机设备,该计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行上述计算机程序时实现如上所述的基于版本差异的流水线并行训练节点权重分配方法。
有益效果:与现有技术相比,本发明针对流水线并行训练中的节点权重陈旧性和现有节点权重预测方法精度低的问题,以异步流水线并行训练为基础,使用更加精确的节点权重预测方法,计算节点权重版本差异值,提高节点权重预测准确性,进一步提高了模型精度,实现良好的节点权重更新,进一步保证了模型训练的有效性。
附图说明
图1为具体实施例中多节点流水线并行训练权重更新示例图;
图2为本发明实施例中的方法流程图;
图3为具体实施例中基于版本差异的流水线并行训练权重分配方法思路示例图;
图4为具体实施例中典型流水线并行示例图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
针对流水线并行训练中的节点权重陈旧性和现有节点权重预测方法精度低的问题,以异步流水线并行训练为基础,使用更加精确的权重预测方法,计算权重版本差异值,提高节点权重预测准确性,进一步提高模型精度,实现良好的节点权重更新,进一步保证模型训练的有效性。
图1(a)为单节点训练不同批次示例图。
Wt表示在t时刻的权重,Wt根据前一个批次在t-1时刻的后向传递计算产生的。在t时刻,每个批次的前向与后向传递都是根据最新的权值Wt进行计算。图中批次4后向传递完成后生成W5,批次5前向传递与后向传递根据W5进行计算。
图1(b)为多节点流水线并行训练权重更新示例图。
该流水线系统每个阶段均使用1个计算节点。Wi j表示第i个节点中第j个批次训练使用的权重版本,虚线箭头走向表示批次5的完整流水线训练流程。可以发现在节点0中,批次5的前向传递使用进行计算,后向传递使用进行计算,而是应用了批次4的后向传递更新之后生成的。
图2为基于版本差异的流水线并行训练权重分配方法流程图。
步骤A:初始化深度学习模型,并把该模型载入流水线系统;构建流水线并行训练方案,采用异步参数更新方法,并发执行不同节点中不同批次的训练,记录各个训练批次在单位流水线执行时间内完成前向和后向传递过程。
步骤B:利用最新的训练节点权重版本,预测出未来训练过程中节点的权重。
步骤B1:预测未来训练过程中节点权重的下降梯度。其具体步骤如下:
定义关于t-1时刻节点参数θt-1(这里指需要更新的参数:最新的训练节点参数)的目标函数为f(θt-1),计算f(θt-1)的梯度gt,其公式为:
μi表示i时刻的一阶矩估计衰减因子。
对于历史梯度计算的一阶矩估计和二阶矩估计mt、nt,其公式为:
mt=μmt-1+(1-μ)gt
其中,vt表示ν的t次幂。
定义预测时刻t的下降梯度ΔWt,其公式为:
其中,ε是一个很小的值,防止分母为0,一般取为1×10-10。
步骤B2:计算下一时刻的节点权重值。其具体步骤为:
计算从t时刻到t+1时刻的节点权重更新,其公式为:
Wt+1=Wt-η·ΔWt
其中η是学习率,ΔWt为t时刻的下降梯度。假设一个批次在t时刻完成其往返训练过程。因此,计算t+1时刻的节点预测权重的公式为:
图3为具体实施例中基于版本差异的流水线并行训练节点权重分配方法思路示例图。
假设某训练批次在t时间单位完成了它的前向和后向传递过程,节点权重预测技术可以在该批次前向传递计算开始时,利用已有的最新节点权重预测出未来训练过程t时刻的权重,并且在其整个传播往返行程中使用这个预测版本节点权重进行计算。当该批次完成整个训练过程时,预测权重成为最新的节点权重。
步骤C:根据节点权重预测进行该批次版本差异计算。
步骤C1:计算该批次执行前向传递时所处阶段的版本差异。其具体步骤如下:
当该批次执行前向传递计算时,当前所处阶段的版本差异s的计算公式为:
其中,index为当前计算节点编号(从0开始),N为流水线系统计算节点数量。
步骤C2:计算该批次执行后向传递时所处阶段的版本差异。其具体步骤如下:
当该批次在后向传递过程时,当前所处阶段的版本差异s的计算公式为:
其中,index为当前计算节点编号(从0开始)。
步骤D:判断该批次计算得到的前向与后向传递版本差异值是否为0,是则不更新节点预测权重,否则根据版本差异进行节点权重更新。其具体步骤如下:
考虑流水线中不同阶段完成某批次训练所需时间不同,计算未来t+k时刻节点权重的公式为:
其中s为节点权重版本差异,即该阶段中当前批次所处时间与该批次完成后向传递时间单位之差。权重版本差异s可以根据当前阶段序号、流水线阶段总数计算得出。通过在前向后向传递中使用计算得到的节点预测权重代替陈旧的节点权重。
步骤E:判断该节点是否完成所有批次的版本差异计算,是则完成该节点的预测权重更新,否则返回步骤B-D继续迭代。
步骤F:判断所有节点的版本差异计算是否全部完成,是则完成流水线并行训练节点权重分配,否则返回步骤E继续迭代。
步骤G:按照步骤F得到的节点权重分配方案将其部署到异构计算节点中,得到针对拟训练目标网络的流水线并行训练节点权重分配方案。
图4为基于深度强化学习的流水线并行训练任务分配方法示例图。
对DNN模型进行运行时分析,获取模型层数、名称、参数量、计算量等信息。以异步流水线并行训练为基础,使用更加精确的节点权重预测方法,计算权重版本差异值,提高节点权重预测准确性,提高模型精度,实现良好的节点权重更新,进一步保证模型训练的有效性。
显然,本领域的技术人员应该明白,上述的本发明实施例的基于版本差异的流水线并行训练节点权重分配方法各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明实施例不限制于任何特定的硬件和软件结合。
Claims (10)
1.一种基于版本差异的流水线并行训练节点权重分配方法,其特征在于,包括如下步骤:
(1)初始化深度学习模型,并把该模型载入;
(2)构建流水线并行训练方案,采用异步参数更新方法,并发执行不同节点中不同批次的训练,记录各个训练批次在单位流水线执行时间内完成前向和后向传递过程;
(3)利用最新的训练节点权重版本,预测出未来训练过程中的节点权重;
(4)根据节点权重预测进行当前批次版本差异计算;
(5)判断当前批次计算得到的前向与后向传递版本差异值是否为0,是则不更新节点预测权重,否则根据版本差异进行权重更新;
(6)判断该节点是否完成所有批次的版本差异计算,是则完成该节点的预测权重更新,否则返回步骤(3)-(5)继续迭代;
(7)判断所有节点的版本差异计算是否全部完成,是则完成流水线并行训练节点权重分配,否则返回步骤(6)继续迭代;
(8)按照上述权重分配方案将其部署到异构计算节点中,得到针对拟训练目标网络的流水线并行训练节点权重分配方案。
2.根据权利要求1所述的基于版本差异的流水线并行训练节点权重分配方法,其特征在于,所述步骤(2)中单位流水线执行时间主要指前向传递和后向传递计算时间之和。
3.根据权利要求1所述的基于版本差异的流水线并行训练节点权重分配方法,其特征在于,所述步骤(3)中预测未来训练过程节点权重的具体步骤如下:
(3.1)预测未来训练过程节点权重的下降梯度;
(3.2)计算下一时刻的节点权重值。
4.根据权利要求1所述的基于版本差异的流水线并行训练节点权重分配方法,其特征在于,所述步骤(4)中进行当前批次版本差异计算的具体步骤如下:
(4.1)计算当前批次执行前向传递时所处阶段的版本差异;
(4.2)计算当前批次执行后向传递时所处阶段的版本差异。
10.一种计算机设备,该计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行上述计算机程序时实现如权利要求1-9中任一项所述的基于版本差异的流水线并行训练节点权重分配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110766607.0A CN113469341A (zh) | 2021-07-07 | 2021-07-07 | 一种基于版本差异的流水线并行训练节点权重分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110766607.0A CN113469341A (zh) | 2021-07-07 | 2021-07-07 | 一种基于版本差异的流水线并行训练节点权重分配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113469341A true CN113469341A (zh) | 2021-10-01 |
Family
ID=77878859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110766607.0A Pending CN113469341A (zh) | 2021-07-07 | 2021-07-07 | 一种基于版本差异的流水线并行训练节点权重分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113469341A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023085458A1 (ko) * | 2021-11-11 | 2023-05-19 | 한국전자기술연구원 | 경량 딥러닝 학습 메모리 제어 방법 및 장치 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170228645A1 (en) * | 2016-02-05 | 2017-08-10 | Nec Laboratories America, Inc. | Accelerating deep neural network training with inconsistent stochastic gradient descent |
CN108829441A (zh) * | 2018-05-14 | 2018-11-16 | 中山大学 | 一种分布式深度学习的参数更新优化系统 |
CN112381218A (zh) * | 2020-11-20 | 2021-02-19 | 中国人民解放军国防科技大学 | 一种用于分布式深度学习训练的本地更新方法 |
US20210089887A1 (en) * | 2019-09-24 | 2021-03-25 | Apple Inc. | Variance-Based Learning Rate Control For Training Machine-Learning Models |
CN112862088A (zh) * | 2021-01-18 | 2021-05-28 | 中山大学 | 一种基于流水线环形参数通信的分布式深度学习方法 |
-
2021
- 2021-07-07 CN CN202110766607.0A patent/CN113469341A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170228645A1 (en) * | 2016-02-05 | 2017-08-10 | Nec Laboratories America, Inc. | Accelerating deep neural network training with inconsistent stochastic gradient descent |
CN108829441A (zh) * | 2018-05-14 | 2018-11-16 | 中山大学 | 一种分布式深度学习的参数更新优化系统 |
US20210089887A1 (en) * | 2019-09-24 | 2021-03-25 | Apple Inc. | Variance-Based Learning Rate Control For Training Machine-Learning Models |
CN112381218A (zh) * | 2020-11-20 | 2021-02-19 | 中国人民解放军国防科技大学 | 一种用于分布式深度学习训练的本地更新方法 |
CN112862088A (zh) * | 2021-01-18 | 2021-05-28 | 中山大学 | 一种基于流水线环形参数通信的分布式深度学习方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023085458A1 (ko) * | 2021-11-11 | 2023-05-19 | 한국전자기술연구원 | 경량 딥러닝 학습 메모리 제어 방법 및 장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111191934B (zh) | 一种基于强化学习策略的多目标云工作流调度方法 | |
JP2019164793A5 (zh) | ||
CN110737529A (zh) | 一种面向短时多变大数据作业集群调度自适应性配置方法 | |
US11222288B2 (en) | Building deep learning ensembles with diverse targets | |
CN115168027B (zh) | 一种基于深度强化学习的算力资源度量方法 | |
CN104239194A (zh) | 基于bp神经网络的任务完成时间预测方法 | |
Tian et al. | Time-delay compensation method for networked control system based on time-delay prediction and implicit PIGPC | |
Teng et al. | Bayesian distributed stochastic gradient descent | |
WO2021214638A1 (en) | Asynchronous quantum information processing | |
CN116307498A (zh) | 施工任务智能调度方法、装置、存储介质和处理器 | |
CN113469341A (zh) | 一种基于版本差异的流水线并行训练节点权重分配方法 | |
CN117236541A (zh) | 基于注意力指针网络的分布式物流配送路径规划方法及系统 | |
CN118193209A (zh) | 一种基于阶段性策略梯度的预测式云平台资源调度方法 | |
Mansour et al. | Allocating data to multicomputer nodes by physical optimization algorithms for loosely synchronous computations | |
CN113220466A (zh) | 一种基于长短期记忆模型的云服务负载通用预测方法 | |
CN117076083A (zh) | 一种任务调度方法和装置 | |
US20220138564A1 (en) | Batch Processing in a Machine Learning Computer | |
CN115794405A (zh) | 一种基于SSA-XGboost算法的大数据处理框架的动态资源分配方法 | |
KR20090032328A (ko) | 가중치 기반 멀티큐 부하분산 병렬처리 시스템 및 방법 | |
CN115220818A (zh) | 基于深度强化学习的实时依赖型任务卸载方法 | |
CN104537224A (zh) | 基于自适应学习算法的多状态系统可靠性分析方法及系统 | |
CN115903514A (zh) | 随机工时下复杂装备资源项目集群鲁棒调度方法 | |
KR102539223B1 (ko) | 엣지 컴퓨팅 환경에서 ami 데이터 스트림 가속처리를 위한 딥 러닝 방법 | |
CN117118836A (zh) | 基于资源预测的服务功能链多阶段节能迁移方法 | |
CN113238873A (zh) | 一种用于航天器资源优化配置的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211001 |