CN111580962A - 一种具有权值衰减的分布式自适应在线学习方法 - Google Patents

一种具有权值衰减的分布式自适应在线学习方法 Download PDF

Info

Publication number
CN111580962A
CN111580962A CN202010353941.9A CN202010353941A CN111580962A CN 111580962 A CN111580962 A CN 111580962A CN 202010353941 A CN202010353941 A CN 202010353941A CN 111580962 A CN111580962 A CN 111580962A
Authority
CN
China
Prior art keywords
distributed
online learning
weight attenuation
adaptive
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010353941.9A
Other languages
English (en)
Inventor
申修宇
李德权
方润月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University of Science and Technology
Original Assignee
Anhui University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University of Science and Technology filed Critical Anhui University of Science and Technology
Priority to CN202010353941.9A priority Critical patent/CN111580962A/zh
Publication of CN111580962A publication Critical patent/CN111580962A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明解决了分散网络中的一个自适应在线学习问题,其中一组学习者的目标函数是局部时变函数的和,而节点间的通信模型是一个连通的无向图。针对这一问题,首次提出了一种利用分布式优化方法和自适应策略的权值衰减分布式自适应在线梯度学习方法。该方法在图像数据集上对一个多项逻辑回归任务进行了数值实验,证实了该方法的计算优势,并与其他在线优化方法进行了比较,该方法优于其他方法。

Description

一种具有权值衰减的分布式自适应在线学习方法
技术领域
本发明涉及一种具有权值衰减的分布式自适应在线学习方法,属于数据处理领域。
背景技术
近年来,分布式优化因其在许多领域的广泛应用而受到广泛关注。与集中式优化相比,分布式优化有一个本质区别,即不需要知道整个问题结构的全部知识。这意味着每个学习者或节点只能与它们的邻居通信,没有一个节点被指定为“中心”。在这种情况下,节点共同最小化优化问题,节点之间的底层通信通常建模为无向图或有向图。
在分布式优化中,值得注意的是现有工作中的大多数成本函数是时不变的。然而,由于动态变化和不确定的环境,在许多实际场景中,目标函数是随时间而变化的。为了解决这些问题,在线优化作为一种强有力的工具,它可以有效地处理这些问题中出现的不确定性。由于对分散设置中的许多实际应用程序的兴趣,分布式版本的在线优化最近得到了广泛的关注。在分布式在线优化中,与多个体网络相关联的全局代价函数被表示为局部代价函数的和,而局部代价函数不能预先得到。本发明的目标是设计一个分布式的在线方法,在一定的时间范围内共同最小化全局成本函数。又由于权值衰减能够提高泛化性能,然而,目前针对此设计都是基于集中式场景,在分布式场景设计的很少。因此本发明在分布式场景中,设计一个具有权值衰减的在线学习方法,提高训练性能。
总结目前存在的问题:①现有的分布式自适应在线学习方法大多是针对中心网络拓扑结构设计的。这种拓扑结构的主要瓶颈在于中心节点上的通信过载,因为所有节点都需要与它并发通信。②现有的分布式在线学习方法中,未考虑权值衰减这一提高泛化性能的重要操作。
发明内容
本发明所要解决的技术问题是:提供一种具有权值衰减的分布式自适应在线学习方法,旨在解决分散式网络中在线学习问题。
为解决以上技术问题,本发明采用如下的技术方案:
首先,将分布式网络架构下的流数据处理与分析问题转化为分布式在线优化问题,考虑研究分散式网络拓扑结构,其中所有节点只能与其邻居通信,没有一个节点被指定为“中心”。其次,受权值衰减的启发,在分布式自适应在线学习中运用了权值衰减操作,提高了分布式在线学习方法的泛化性能。在此基础上,设计泛化能力强的权值衰减分布式在线学习算法,揭示算法性能和网络拓扑结构参数间的关系,实现有代表性的分布式在线学习的应用研究。该方法既能并行化数据,又能分散计算,适用于大规模机器学习问题。
附图说明
图1是本发明的方法在多项逻辑回归任务上与其它方法的对比图。
图2是本发明的方法在不同节点的网络上的测试图。
图3是本发明的方法在不同网络拓扑结构上的测试图。
具体实施方式
本发明解决在连通无向网络上的分布式在线学习问题,避免集中式场景中单个信息处理单元中的缺陷,造成中心节点通信成本过高,以及利用权值衰减操作提高该方法的数据处理效率。
具体步骤为:
Step1:揭示损失函数fi,t(xi,t);
Step2:计算个体产生信息的梯度,
Figure BDA0002472825470000021
Step3:
Figure BDA0002472825470000022
在分布式网络中,通过加权平均进行个体的信息传递(Step3中的第四行),以确保充分利用重要个体的信息。此外,该方法引入了权值衰减操作,提升了数据处理的效率。αt是学习率,β123∈[0,1)为衰减参数,mi,t是学习者i在t时刻的梯度的一阶动量估计,vi,t是学习者i在t时刻的梯度的二阶动量估计,λ∈(0,1)是权值衰减参数,W为双随机矩阵。
以下结合附图对本发明作进一步的说明。
图1是本发明的方法在多项逻辑回归任务上与其它方法的对比图。考虑在线分布式学习环境:解决机器学习中流行的多项逻辑回归问题,对于MNIST图像数据集,测试结果如图1所示。可以看出,本发明提出的方法优于其他已存在的方法。图1还显示了该方法的收敛速度在开始时明显快于其他方法。
图2是本发明的方法在不同节点的网络上的测试图。在实际数据集上进行了实验,结果令人满意。从图2可以看出,在较大的网络上,其成本的下降速度比在较小的网络上要慢。
图3是本发明的方法在不同网络拓扑结构上的测试图。测试采用了Complete完全图以及ER随机图两种网络拓扑结构,并采用了著名的MNIST数据集,结果令人满意。

Claims (3)

1.一种具有权值衰减的分布式自适应在线学习方法,其特征在于:网络拓扑的自适应性,分布式网络中所有节点只能与其邻居通信,没有一个节点被指定为“中心”。并且受权重衰减的启发,在分布式自适应在线学习中使用了权重衰减操作,提升训练性能。
2.根据权利要求1所述的分布式网络中所有节点只能与其邻居通信,没有一个节点被指定为“中心”。其特征在于:在分布式在线学习中,每个节点代表一个学习者,在每轮迭代中,学习者产生决策信息,相互独立提交决策信息并获得相应的成本函数。
3.根据权利要求1阐述的受权重衰减的启发,在分布式自适应在线学习中使用了权重衰减,加速训练过程。其特征在于:在训练过程中实施权重衰减操作,提升了算法的性能,加速训练过程。
CN202010353941.9A 2020-04-29 2020-04-29 一种具有权值衰减的分布式自适应在线学习方法 Pending CN111580962A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010353941.9A CN111580962A (zh) 2020-04-29 2020-04-29 一种具有权值衰减的分布式自适应在线学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010353941.9A CN111580962A (zh) 2020-04-29 2020-04-29 一种具有权值衰减的分布式自适应在线学习方法

Publications (1)

Publication Number Publication Date
CN111580962A true CN111580962A (zh) 2020-08-25

Family

ID=72127603

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010353941.9A Pending CN111580962A (zh) 2020-04-29 2020-04-29 一种具有权值衰减的分布式自适应在线学习方法

Country Status (1)

Country Link
CN (1) CN111580962A (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130290223A1 (en) * 2012-04-27 2013-10-31 Yahoo! Inc. Method and system for distributed machine learning
CN107704917A (zh) * 2017-08-24 2018-02-16 北京理工大学 一种有效训练深度卷积神经网络的方法
CN108932480A (zh) * 2018-06-08 2018-12-04 电子科技大学 基于1d-cnn的分布式光纤传感信号特征学习与分类方法
WO2019042571A1 (en) * 2017-09-04 2019-03-07 Huawei Technologies Co., Ltd. DESCENT OF STOCHASTIC GRADIENT DISTRIBUTED TO AVERAGE ASYNCHRONOUS GRADIENT FORMATION
US20190166005A1 (en) * 2017-11-27 2019-05-30 Massachusetts Institute Of Technology Methods and Apparatus for Communication Network
CN110659745A (zh) * 2019-09-30 2020-01-07 安徽理工大学 一种具有动态学习速率边界的分布式自适应矩估计方法
CN110768841A (zh) * 2019-10-30 2020-02-07 安徽理工大学 一种基于条件梯度的加速分布式在线优化方法
US20200090031A1 (en) * 2018-09-13 2020-03-19 Google Llc Adaptive Optimization with Improved Convergence
CN110929948A (zh) * 2019-11-29 2020-03-27 上海电力大学 基于深度强化学习的完全分布式智能电网经济调度方法
CN110942142A (zh) * 2019-11-29 2020-03-31 广州市百果园信息技术有限公司 神经网络的训练及人脸检测方法、装置、设备和存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130290223A1 (en) * 2012-04-27 2013-10-31 Yahoo! Inc. Method and system for distributed machine learning
CN107704917A (zh) * 2017-08-24 2018-02-16 北京理工大学 一种有效训练深度卷积神经网络的方法
WO2019042571A1 (en) * 2017-09-04 2019-03-07 Huawei Technologies Co., Ltd. DESCENT OF STOCHASTIC GRADIENT DISTRIBUTED TO AVERAGE ASYNCHRONOUS GRADIENT FORMATION
US20190166005A1 (en) * 2017-11-27 2019-05-30 Massachusetts Institute Of Technology Methods and Apparatus for Communication Network
CN108932480A (zh) * 2018-06-08 2018-12-04 电子科技大学 基于1d-cnn的分布式光纤传感信号特征学习与分类方法
US20200090031A1 (en) * 2018-09-13 2020-03-19 Google Llc Adaptive Optimization with Improved Convergence
CN110659745A (zh) * 2019-09-30 2020-01-07 安徽理工大学 一种具有动态学习速率边界的分布式自适应矩估计方法
CN110768841A (zh) * 2019-10-30 2020-02-07 安徽理工大学 一种基于条件梯度的加速分布式在线优化方法
CN110929948A (zh) * 2019-11-29 2020-03-27 上海电力大学 基于深度强化学习的完全分布式智能电网经济调度方法
CN110942142A (zh) * 2019-11-29 2020-03-31 广州市百果园信息技术有限公司 神经网络的训练及人脸检测方法、装置、设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王俊雅;: "分布式在线随机投影优化" *

Similar Documents

Publication Publication Date Title
Xu et al. Trust-aware service offloading for video surveillance in edge computing enabled internet of vehicles
CN109039942B (zh) 一种基于深度强化学习的网络负载均衡系统及均衡方法
CN111988225B (zh) 基于强化学习和迁移学习的多路径路由方法
CN111612125B (zh) 一种面向在线学习的新型htm时间池方法及其系统
CN113671987B (zh) 基于非死锁合同网算法的多机分布式时序任务分配方法
CN113518007B (zh) 一种基于联邦学习的多物联网设备异构模型高效互学习方法
CN110659745A (zh) 一种具有动态学习速率边界的分布式自适应矩估计方法
CN109818792B (zh) 一种基于二阶线性系统时变耦合复杂动态网络模型的控制器
CN114697229A (zh) 一种分布式路由规划模型的构建方法及应用
CN114465945A (zh) 一种基于sdn的标识解析网络构建方法
CN115714741A (zh) 一种基于协同多智能体强化学习的路由决策方法及系统
CN110120892B (zh) 基于改进的萤火虫算法的sdn多控制器部署方法及系统
Xu et al. Living with artificial intelligence: A paradigm shift toward future network traffic control
CN113672684A (zh) 一种面向非独立同分布数据的分层用户训练管理系统及方法
CN108880909A (zh) 一种基于强化学习的网络节能方法及装置
CN109508785A (zh) 一种用于神经网络训练的异步并行优化方法
CN111580962A (zh) 一种具有权值衰减的分布式自适应在线学习方法
CN107169561A (zh) 面向功耗的混合粒子群脉冲神经网络映射方法
You et al. On parallel immune quantum evolutionary algorithm based on learning mechanism and its convergence
CN108111535A (zh) 一种基于改进的蒙特卡洛算法的最优攻击路径规划方法
CN115022231A (zh) 一种基于深度强化学习的最优路径规划的方法和系统
Li et al. Online coordinated nfv resource allocation via novel machine learning techniques
CN114218776A (zh) 一种基于区块链的分布式仿真实现方法
CN110620686B (zh) 一种基于复杂通信网络的路由节点选取方法
Zhang et al. Dynamic scheduling of blocking flow-shop based on multi-population ACO algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200825