CN110084378A - 一种基于本地学习策略的分布式机器学习方法 - Google Patents
一种基于本地学习策略的分布式机器学习方法 Download PDFInfo
- Publication number
- CN110084378A CN110084378A CN201910375050.0A CN201910375050A CN110084378A CN 110084378 A CN110084378 A CN 110084378A CN 201910375050 A CN201910375050 A CN 201910375050A CN 110084378 A CN110084378 A CN 110084378A
- Authority
- CN
- China
- Prior art keywords
- local
- parameter
- learning
- gradient
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000008569 process Effects 0.000 claims abstract description 18
- 238000010801 machine learning Methods 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 abstract description 9
- 238000011478 gradient descent method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于本地学习策略的分布式机器学习方法,基于参数服务器架构,既适用于数据中心的多机集群分布式机器学习,也适用于服务器作为云端、手机或嵌入式设备作为终端的端云协同分布式机器学习。包括以下步骤:首先服务器节点累计所有工作节点计算的本地梯度和得到全梯度,并将全梯度广播给所有工作节点;随后每个工作节点各自进行若干次参数更新后将本地的参数发送给服务器节点;最后服务器节点将从工作节点收集到的参数求均值作为最新参数广播给所有工作节点;上述过程迭代多轮直到达到收敛条件。本发明的方法基于本地学习策略,不需要在工作节点每次参数更新后都进行通信,从而减少了分布式机器学习中的通信开销。
Description
技术领域
本发明提供了一种基于本地学习策略的分布式机器学习方法,涉及机器学习领域的分布式算法,可以有效地减少分布式机器学习中的通信开销。
背景技术
大部分机器学习模型可以被形式化为以下优化问题:
其中w代表了模型的参数,n代表了训练样本的总数,fi(·)则表示第i个样本所对应的损失函数。为了求解上述优化问题,随机梯度下降法(SGD)以及它的变体是目前应用最为广泛的方法。随着训练数据量的增大,很多机器学习问题的训练过程需要花费大量的时间,分布式算法将训练数据分散到多个节点上并行地进行训练,以此来加速机器学习的训练过程。
参数服务器架构(Parameter Server)是分布式机器学习中常用的一种架构,该架构具有良好的可扩展性和容错性,同时也支持灵活的一致性模型。参数服务器架构中包含两种类型的节点:模型参数存储在一个或是多个服务器节点(Server)上,训练样本数据存储在多个工作节点(Worker)上。
在基于参数服务器架构的分布式随机梯度下降法中,每一次参数更新可以描述为以下过程:首先服务器节点将当前的模型参数广播给所有工作节点;随后每个工作节点在本地的样本集合中随机选取一个样本(假设其样本编号为i),并计算出该样本所对应的损失函数的梯度最后所有工作节点将梯度发送给服务器节点,在服务器节点收集到所有工作节点上的梯度后,使用随机梯度下降法更新模型参数。一次机器学习问题的训练过程,往往要经历很多次参数更新才能接近全局最优解或是局部最优解。
随着机器学习模型的增大和参与分布式计算的节点数增多,每次参数更新时节点之间的通信往往会成为性能瓶颈。
发明内容
发明目的:目前的分布式随机梯度下降法在每次参数更新时节点之间都需要进行通信以同步参数,随着机器学习模型的增大和参与分布式计算的节点数增多,这样的方法中所消耗的通信时间也会越来越长,通信开销往往会成为性能瓶颈。针对上述问题与不足,提供一种基于本地学习策略的分布式机器学习方法,基于本地学习策略,每个工作节点在接收到服务器节点所发送的当前模型参数后,会在本地使用类似于随机方差缩减梯度下降法(SVRG)的方式进行若干次参数更新并得到一个本地参数。在这之后服务器节点才会与所有工作节点进行通信,并将所有工作节点上本地参数的均值作为新的模型参数。由此可见,本发明的方法中通信频率明显降低,所以能有效地减少分布式机器学习中的通信开销,从而达到加速分布式机器学习训练过程的目的。
技术方案:一种基于本地学习策略的分布式机器学习方法,其在服务器节点上训练流程的具体步骤为:
步骤100,输入机器学习模型w以及总共的迭代轮数T、工作节点数目p、样本总数n;
步骤101,随机初始化模型参数w=w0;
步骤102,将当前的模型参数wt广播给所有的工作节点;
步骤103,收集所有工作节点计算的本地梯度和zk;
步骤104,计算出全梯度
步骤105,将全梯度z广播给所有的工作节点;
步骤106,收集所有工作节点计算的本地参数uk;
步骤107,更新模型参数
步骤108,判断当前已完成的迭代轮数t是否达到总共的迭代轮数T,如果是则输出并保存模型w;否则返回步骤102继续进行训练。
本发明的方法在第k个工作节点上训练流程的具体步骤为:
步骤200,输入训练样本集合的子集(完整的训练样本集合以及总共的迭代轮数T、学习率η、本地更新次数M;
步骤201,接受服务器节点发送的模型参数wt;
步骤202,根据本地的样本数据计算出本地梯度和其中则表示第i个样本所对应的损失函数在当前模型参数下的梯度;
步骤203,将本地梯度和zk发送给服务器节点;
步骤204,接受服务器节点发送的全梯度z;
步骤205,根据当前的模型参数wt、全梯度z与本地的样本数据进行M次本地参数更新;
步骤206,将本地参数uk发送给服务器节点;
步骤207,判断当前已完成的迭代轮数t是否达到总共的迭代轮数T,如果是则结束训练流程;否则返回步骤201继续进行训练。
在第k个工作节点上进行步骤205的本地参数更新的具体流程为:首先输入当前模型参数wt、全梯度z、本地的样本数据以及学习率η、本地更新次数M;随后初始化本地参数uk,0=wt;最后从本地的样本数据中随机选取一个样本(假设其样本编号为ik,m),并按照以下公式更新本地参数uk:
其中uk,m代表第m次更新时的本地参数,c为人工设置的超参数,c(uk,m-wt)这一项用于减小本地学习策略所带来的偏差,从而保证本发明方法的收敛性。此外,如果每个工作节点的本地样本数据分布和全局样本数据分布相差不大,c可以设置为0。重复以上的步骤M次后即完成了本地参数更新的流程。
有益效果:本发明提供的基于本地学习策略的分布式机器学习方法,既适用于数据中心的多机集群分布式机器学习,也适用于服务器作为云端、手机或嵌入式设备作为终端的端云协同分布式机器学习。本发明的方法基于本地学习策略,节点之间每经历若干次本地的参数更新之后才会进行一次通信,与现有技术相比,本发明的方法不需要在每次参数更新后都进行通信以同步参数,从而减少了分布式机器学习中的通信开销。
附图说明
图1为本发明实施的基于本地学习策略的分布式机器学习方法在服务器节点上的工作流程图;
图2为本发明实施的基于本地学习策略的分布式机器学习方法在工作节点上的工作流程图;
图3为本发明实施的在工作节点上进行本地参数更新的工作流程图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明提供的基于本地学习策略的分布式机器学习方法,可应用于图像分类、文本分类等领域,适合于待分类的数据集样本数多、所使用的机器学习模型参数量大的场景。以图像分类应用为例,在本发明的方法中,训练图像数据将分布式的存储在若干个工作节点上,而机器学习模型参数将由若干个服务器节点共同维护,在图像分类应用中的具体工作流程如下所述:
基于本地学习策略的分布式机器学习方法,在服务器节点上的工作流程如图1所示。首先输入机器学习模型w以及总共的迭代轮数T、工作节点数目p、样本总数n(步骤100),并随机初始化模型参数w=w0(步骤101)。接下来初始化迭代轮数计数器t=0(步骤102),随后进入到模型训练的迭代阶段:先将当前模型参数wt广播给所有的工作节点(步骤103),并收集所有工作节点计算的本地梯度和zk(步骤104);根据收集的本地梯度和计算出全梯度(步骤105),并将全梯度z广播给所有工作节点(步骤106);最后收集所有工作节点计算的本地参数uk(步骤107)并更新模型参数(步骤108)。每次迭代结束时将迭代轮数计数器增加1(步骤109)并进行判断是否达到停止条件t=T(步骤110),若未达到停止条件则继续迭代,否则输出训练结果并保存模型(步骤111)。
基于本地学习策略的分布式机器学习方法,在第k个工作节点上的工作流程如图2所示。首先输入本地训练图像数据以及总共的迭代轮数T、学习率η、本地更新次数M(步骤200),本地训练图像数据为完整训练图像数据集合的一个子集(完整训练图像数据集合)。接下来初始化迭代轮数计数器t=0(步骤201),随后进入到模型训练的迭代阶段:先接受服务器节点发送的模型参数wt(步骤202),并根据本地训练图像数据计算出本地梯度和 (步骤203);随后将本地梯度和zk发送给服务器节点(步骤204),并接受服务器节点发送的全梯度z(步骤205);最后根据全梯度z、本地训练图像数据以及当前模型参数wt进行M次本地参数更新(步骤206),并在更新结束后将本地参数uk发送给服务器节点(步骤207)。每次迭代结束时将迭代轮数计数器增加1(步骤208)并进行判断是否达到停止条件t=T(步骤209),若未达到停止条件则继续迭代,否则结束训练流程(步骤210)。
在第k个工作节点上进行本地参数更新的工作流程图如图3所示。首先读取当前的模型参数wt、全梯度z、本地训练图像数据以及学习率η、本地更新次数M(步骤2060),并初始化本地参数uk,0=wt(步骤2061)和更新次数计数器m=0(步骤2062)。随后进入迭代更新的过程:先从本地训练图像数据中随机选取一张编号为ik,m的图像样本(步骤2063),随后按照以下公式更新本地参数uk(步骤2064):
最后将更新次数计数器m增加1(步骤2065);重复上述步骤,直到满足停止条件m=M(步骤2066),输出本地参数模型uk(步骤2067)。
本发明的方法在多个图像分类、文本分类数据集上进行了实验。实验结果表明,本发明提出的方法相比于其他分布式机器学习方法具有更高的效率。
Claims (4)
1.一种基于本地学习策略的分布式机器学习方法,其特征在于,其在服务器节点上训练流程的具体步骤为:
步骤100,输入机器学习模型w以及总共的迭代轮数T、工作节点数目p、样本总数n;
步骤101,随机初始化模型参数w=w0;
步骤102,将当前的模型参数wt广播给所有的工作节点;
步骤103,收集所有工作节点计算的本地梯度和zk;
步骤104,计算出全梯度
步骤105,将全梯度z广播给所有的工作节点;
步骤106,收集所有工作节点计算的本地参数uk;
步骤107,更新模型参数
步骤108,判断当前已完成的迭代轮数t是否达到总共的迭代轮数T,如果是则输出并保存模型w;否则返回步骤102继续进行训练。
2.如权利要求1所述的基于本地学习策略的分布式机器学习方法,其特征在于,其在第k个工作节点上训练流程的具体步骤为:
步骤200,输入训练样本集合的子集(完整的训练样本集合)以及总共的迭代轮数T、学习率η、本地更新次数M;
步骤201,接受服务器节点发送的模型参数wt;
步骤202,根据本地的样本数据计算出本地梯度和其中则表示第i个样本所对应的损失函数在当前模型参数下的梯度;
步骤203,将本地梯度和zk发送给服务器节点;
步骤204,接受服务器节点发送的全梯度z;
步骤205,根据当前的模型参数wt、全梯度z与本地的样本数据进行M次本地参数更新;
步骤206,将本地参数uk发送给服务器节点;
步骤207,判断当前已完成的迭代轮数t是否达到总共的迭代轮数T,如果是则结束训练流程;否则返回步骤201继续进行训练。
3.如权利要求1所述的基于本地学习策略的分布式机器学习方法,其特征在于,在第k个工作节点上进行本地参数更新的具体流程为:首先输入当前模型参数wt、全梯度z、本地的样本数据以及学习率η、本地更新次数M;随后初始化本地参数uk,0=wt;最后从本地的样本数据中随机选取一个样本(假设其样本编号为ik,m),并按照以下公式更新本地参数uk:
其中uk,m代表第m次更新时的本地参数,c为人工设置的超参数,c(uk,m-wt)这一项用于减小本地学习策略所带来的偏差;
重复以上的步骤M次后即完成了本地参数更新的流程。
4.如权利要求1所述的基于本地学习策略的分布式机器学习方法,其特征在于:方法是基于参数服务器架构的,既适用于数据中心的多机集群分布式机器学习,也适用于服务器作为云端、手机或嵌入式设备作为终端的端云协同分布式机器学习。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910375050.0A CN110084378B (zh) | 2019-05-07 | 2019-05-07 | 一种基于本地学习策略的分布式机器学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910375050.0A CN110084378B (zh) | 2019-05-07 | 2019-05-07 | 一种基于本地学习策略的分布式机器学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110084378A true CN110084378A (zh) | 2019-08-02 |
CN110084378B CN110084378B (zh) | 2023-04-21 |
Family
ID=67418970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910375050.0A Active CN110084378B (zh) | 2019-05-07 | 2019-05-07 | 一种基于本地学习策略的分布式机器学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110084378B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929878A (zh) * | 2019-10-30 | 2020-03-27 | 同济大学 | 一种分布式随机梯度下降方法 |
CN111027708A (zh) * | 2019-11-29 | 2020-04-17 | 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 | 一种面向分布式机器学习的参数通信优化方法 |
CN111191796A (zh) * | 2019-11-25 | 2020-05-22 | 上海联影智能医疗科技有限公司 | 用于增强分布式医疗网络的系统和方法 |
CN111325417A (zh) * | 2020-05-15 | 2020-06-23 | 支付宝(杭州)信息技术有限公司 | 实现隐私保护的多方协同更新业务预测模型的方法及装置 |
CN111369009A (zh) * | 2020-03-04 | 2020-07-03 | 南京大学 | 一种能容忍不可信节点的分布式机器学习方法 |
CN111444021A (zh) * | 2020-04-02 | 2020-07-24 | 电子科技大学 | 基于分布式机器学习的同步训练方法、服务器及系统 |
CN111709533A (zh) * | 2020-08-19 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 机器学习模型的分布式训练方法、装置以及计算机设备 |
CN111814968A (zh) * | 2020-09-14 | 2020-10-23 | 北京达佳互联信息技术有限公司 | 用于机器学习模型的分布式训练的方法和装置 |
CN112085524A (zh) * | 2020-08-31 | 2020-12-15 | 中国人民大学 | 一种基于q学习模型的结果推送方法和系统 |
CN112381218A (zh) * | 2020-11-20 | 2021-02-19 | 中国人民解放军国防科技大学 | 一种用于分布式深度学习训练的本地更新方法 |
CN112561078A (zh) * | 2020-12-18 | 2021-03-26 | 北京百度网讯科技有限公司 | 分布式的模型训练方法、相关装置及计算机程序产品 |
WO2022111403A1 (zh) * | 2020-11-27 | 2022-06-02 | 华为技术有限公司 | 一种机器学习方法、装置和系统 |
CN115633031A (zh) * | 2022-09-06 | 2023-01-20 | 鹏城实验室 | 一种启发式指导的异步历史优化方法及相关设备 |
CN116070720A (zh) * | 2023-03-23 | 2023-05-05 | 山东海量信息技术研究院 | 基于分布式集群的数据处理方法、系统、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170090980A1 (en) * | 2011-11-09 | 2017-03-30 | BigML, Inc. | Evolving parallel system to automatically improve the performance of multiple concurrent tasks on large datasets |
CN108829441A (zh) * | 2018-05-14 | 2018-11-16 | 中山大学 | 一种分布式深度学习的参数更新优化系统 |
CN109600255A (zh) * | 2018-12-04 | 2019-04-09 | 中山大学 | 一种去中心化的参数服务器优化算法 |
-
2019
- 2019-05-07 CN CN201910375050.0A patent/CN110084378B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170090980A1 (en) * | 2011-11-09 | 2017-03-30 | BigML, Inc. | Evolving parallel system to automatically improve the performance of multiple concurrent tasks on large datasets |
CN108829441A (zh) * | 2018-05-14 | 2018-11-16 | 中山大学 | 一种分布式深度学习的参数更新优化系统 |
CN109600255A (zh) * | 2018-12-04 | 2019-04-09 | 中山大学 | 一种去中心化的参数服务器优化算法 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929878A (zh) * | 2019-10-30 | 2020-03-27 | 同济大学 | 一种分布式随机梯度下降方法 |
CN110929878B (zh) * | 2019-10-30 | 2023-07-04 | 同济大学 | 一种分布式随机梯度下降方法 |
CN111191796A (zh) * | 2019-11-25 | 2020-05-22 | 上海联影智能医疗科技有限公司 | 用于增强分布式医疗网络的系统和方法 |
CN111191796B (zh) * | 2019-11-25 | 2024-03-22 | 上海联影智能医疗科技有限公司 | 用于增强分布式医疗网络的系统和方法 |
CN111027708A (zh) * | 2019-11-29 | 2020-04-17 | 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 | 一种面向分布式机器学习的参数通信优化方法 |
CN111369009A (zh) * | 2020-03-04 | 2020-07-03 | 南京大学 | 一种能容忍不可信节点的分布式机器学习方法 |
CN111444021A (zh) * | 2020-04-02 | 2020-07-24 | 电子科技大学 | 基于分布式机器学习的同步训练方法、服务器及系统 |
CN111444021B (zh) * | 2020-04-02 | 2023-03-24 | 电子科技大学 | 基于分布式机器学习的同步训练方法、服务器及系统 |
CN111325417A (zh) * | 2020-05-15 | 2020-06-23 | 支付宝(杭州)信息技术有限公司 | 实现隐私保护的多方协同更新业务预测模型的方法及装置 |
CN111709533A (zh) * | 2020-08-19 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 机器学习模型的分布式训练方法、装置以及计算机设备 |
CN112085524B (zh) * | 2020-08-31 | 2022-11-15 | 中国人民大学 | 一种基于q学习模型的结果推送方法和系统 |
CN112085524A (zh) * | 2020-08-31 | 2020-12-15 | 中国人民大学 | 一种基于q学习模型的结果推送方法和系统 |
CN111814968B (zh) * | 2020-09-14 | 2021-01-12 | 北京达佳互联信息技术有限公司 | 用于机器学习模型的分布式训练的方法和装置 |
CN111814968A (zh) * | 2020-09-14 | 2020-10-23 | 北京达佳互联信息技术有限公司 | 用于机器学习模型的分布式训练的方法和装置 |
CN112381218B (zh) * | 2020-11-20 | 2022-04-12 | 中国人民解放军国防科技大学 | 一种用于分布式深度学习训练的本地更新方法 |
CN112381218A (zh) * | 2020-11-20 | 2021-02-19 | 中国人民解放军国防科技大学 | 一种用于分布式深度学习训练的本地更新方法 |
WO2022111403A1 (zh) * | 2020-11-27 | 2022-06-02 | 华为技术有限公司 | 一种机器学习方法、装置和系统 |
CN112561078A (zh) * | 2020-12-18 | 2021-03-26 | 北京百度网讯科技有限公司 | 分布式的模型训练方法、相关装置及计算机程序产品 |
CN112561078B (zh) * | 2020-12-18 | 2021-12-28 | 北京百度网讯科技有限公司 | 分布式的模型训练方法及相关装置 |
CN115633031A (zh) * | 2022-09-06 | 2023-01-20 | 鹏城实验室 | 一种启发式指导的异步历史优化方法及相关设备 |
CN115633031B (zh) * | 2022-09-06 | 2024-02-23 | 鹏城实验室 | 一种启发式指导的异步历史优化方法及相关设备 |
CN116070720A (zh) * | 2023-03-23 | 2023-05-05 | 山东海量信息技术研究院 | 基于分布式集群的数据处理方法、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110084378B (zh) | 2023-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084378A (zh) | 一种基于本地学习策略的分布式机器学习方法 | |
CN110287031A (zh) | 一种减少分布式机器学习通信开销的方法 | |
CN108053119B (zh) | 一种求解零等待流水车间调度问题的改进粒子群优化方法 | |
CN106656798B (zh) | 一种计算决策路径的方法及分布式节点 | |
CN106845623B (zh) | 一种基于人工鱼群算法的电力无线专网基站规划方法 | |
CN110110861A (zh) | 确定模型超参数及模型训练的方法和装置、存储介质 | |
CN105976048A (zh) | 一种基于改进人工蜂群算法的输电网扩展规划方法 | |
CN110428046A (zh) | 神经网络结构的获取方法及装置、存储介质 | |
Gajpal et al. | An ant colony algorithm for scheduling in flowshops with sequence-dependent setup times of jobs | |
CN105515010B (zh) | 一种基于合作对策的二级电压协调控制方法及系统 | |
CN105956689A (zh) | 一种基于改进粒子群优化的运输和生产协同调度方法 | |
CN106296425A (zh) | 基于带权重联合非负矩阵分解的属性图聚类方法及系统 | |
CN107209746A (zh) | 模型参数融合方法及装置 | |
CN107609694A (zh) | 海上风电集群输电系统结构优化方法及存储介质 | |
CN109767052A (zh) | 自动任务分配方法和系统 | |
CN108566625A (zh) | 基于软件定义网络的WiFi定位方法 | |
CN108880909A (zh) | 一种基于强化学习的网络节能方法及装置 | |
CN103996325B (zh) | 一种培训系统中多级调度一体化模式下的教案制作方法 | |
CN110110860A (zh) | 一种用于加速机器学习训练的自适应数据采样方法 | |
CN105790792A (zh) | 一种用户线远端串扰消除矢量计算方法及装置 | |
CN112199154A (zh) | 一种基于分布式协同采样中心式优化的强化学习训练系统及方法 | |
CN115688495B (zh) | 分布式lvc仿真体系协同筹划方法、服务器及存储介质 | |
CN105589896B (zh) | 数据挖掘方法及装置 | |
CN112712251B (zh) | 一种应用于驳船管理系统中的船舶智能调度方法 | |
CN102857939B (zh) | 小区参数的配置方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |