CN113191487B - 基于分布式ppo算法的自适应连续功率控制方法 - Google Patents
基于分布式ppo算法的自适应连续功率控制方法 Download PDFInfo
- Publication number
- CN113191487B CN113191487B CN202110469413.4A CN202110469413A CN113191487B CN 113191487 B CN113191487 B CN 113191487B CN 202110469413 A CN202110469413 A CN 202110469413A CN 113191487 B CN113191487 B CN 113191487B
- Authority
- CN
- China
- Prior art keywords
- network
- ppo
- theta
- global
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明涉及一种基于分布式PPO算法的自适应连续功率控制方法,属于深度强化学习领域,包括S1:首先用多个线程代表多个副网络,多个副网络共享一个全局PPO网络策略参数,对所有参数进行初始化;S2:多个线程并发地执行全局PPO网络的策略,平行在各自不同的环境中去收集一定批量的数据信息;S3:多个线程将收集到的样本数据传送给全局PPO网络,多个线程停止收集样本数据;S4:全局PPO网络根据多个线程传递过来的样本数据训练网络,更新策略参数;S5:全局PPO网络更新参数后,停止更新参数,并控制多个线程继续并发地收集样本数据信息,然后重复步骤S4,直到任务结束。
Description
技术领域
本发明属于深度强化学习领域,涉及一种基于分布式PPO算法的自适应连续功率控制方法。
背景技术
在文献Proximal Policy Optimization Based Continuous Intelligent PowerControl in Cognitive Radio Network中,利用了一种基于策略的深度强化学习算法,近端策略优化算法(Proximal Policy Optimization,PPO)算法来帮助认知无线网络中的次级用户实现自适应的连续功率控制,从而共享主用户的频谱资源,实现主用户和自己的成功通信。
PPO算法是一种基于AC框架的深度强化学习算法,具有人工神经网络的PPO算法可以处理无限的状态空间环境,而且它是基于策略的方法,可以处理无限的动作空间,很符合本文提出的在复杂环境中实现次级用户智能连续功率控制,以便共享主用户频谱资源的目标。
PPO算法主要比较好的解决了传统基于策略的方法中对更新步数敏感和网络更新效率过慢的问题。这主要是PPO算法采用了重要性采样的方法将on-policy的方法转变为了off-policy的方法,可以反复使用经验数据,提升了网络的更新效率,并且通过加入限制更新步长的方法,解决了策略方法对更新步长过于敏感的问题。传统的策略方法是用一个网络θ执行参数化后的策略πθ去与环境交互,采样数据和训练网络,当这个网络的参数更新后,以前根据这个策略采集到的数据不能再用来训练这个网络,需要用新的策略重新采样数据,这就会导致网络对样本信息的利用率不高,参数更新效率很低,造成巨大的时间消耗。重要性采样的方法是构建一个输出动作概率分布与网络θ很相近的网络θ'去与环境交互采用样本数据,然后执行策略πθ'去训练网络θ若干次,由于网络θ'的参数是固定不变的,因此实现了对采样数据的重复利用,提高了网络的更新效率。在传统的策略梯度方法中,梯度计算公式为:
采用重要性采样的方法后,可以将(1)式变为:
于是得到了新的基于PPO算法的目标函数:
其中Jθ′(θ)代表的含义与环境互动的网络θ'更新网络θ。这样就将on-policy的方法转换为了off-policy的方法,可以实现对采样数据的重复利用,然而传统策略方法中对更新步长敏感的问题依然存在,即如果这两个网络的输出动作概率分布相差太远的话,就会导致训练很难收敛,为了使这两个网络的分布不会相差太远,PPO算法在(1.3)式中又增加了限制条件,如下所示:
式中ratiot(θ)为表示的是两个网络策略的比值,clip是裁剪函数,当这两个网络的动作概率分布相差太远则进行裁剪,即当ratiot(θ)的值小于1-ε,则取1-ε;如果ratiot(θ)的值大于1+ε,则取1+ε,一般ε的值为0.1或0.2。这样就可以有效的防止过大的更新,解决了策略方法对更新步长敏感的问题。
虽然上述的PPO算法可以有效的帮助次级用户学习到最优的连续功率控制策略,但由于在神经网络的训练中,深度神经网络的参数量比较大,大量的迭代更新这些参数会导致复杂度比较高,训练时间较长。
发明内容
有鉴于此,本发明的目的在于提供一种分布式的PPO(Distributed PPO,DPPO)方法来提高训练的速度,减少训练时间。与PPO方法不同的是,DPPO具有多个副网络和一个主网络,副网络共享主网络的策略参数,在训练中副网络执行主网络的策略平行的在各自的环境中收集样本信息,并将样本传递给主网络,主网络根据这些副网络传递的样本信息进行训练,更新策略参数,之后多个副网络继续用主网络更新后的新策略参数继续并发的收集样本数据给主网络训练,直到训练结束。
为达到上述目的,本发明提供如下技术方案:
一种基于分布式PPO算法的自适应连续功率控制方法,包括以下步骤:
S1:首先用多个线程代表多个副网络,所述多个副网络共享一个全局PPO网络策略参数,对所有参数进行初始化;
S2:所述多个线程并发地执行全局PPO网络的策略,平行在各自不同的环境中去收集一定批量的数据信息;
S3:所述多个线程将收集到的样本数据传送给全局PPO网络,多个线程停止收集样本数据;
S4:所述全局PPO网络根据多个线程传递过来的样本数据训练网络,更新策略参数;
S5:所述全局PPO网络更新参数后,停止更新参数,并控制所述多个线程继续并发地收集样本数据信息,然后重复步骤S4,直到任务结束。
进一步,步骤S1中,初始化多个线程workers;初始化一个全局的PPO网络参数;初始化Actor网络的参数θ和另一个网络θ',Critic网络的参数φ;初始化θ'网络的更新次数M和Critic网络的更新次数B;初始化传感器数量以及干扰误差等环境参数;初始化网络训练的回合数N,每回合的迭代步骤数T以及采样的批量步数Batchsize;初始化主用户和次级用户的功率,代入主用户的功率控制策略得到下一个时间帧的功率,进而获得环境的初始状态s0。
进一步,步骤S2中,多个workers执行全局PPO网络中Actor网络的策略πθ在各自的环境中采集样本数据{st,at,rt}。
进一步,步骤S3中,多个workers各自执行Batchsize步后停止采集数据,将采集到的样本信息传递给全局的PPO网络。
进一步,步骤S4-S5中,全局PPO网络计算累积函数优势函数Aθ,并将网络θ的参数赋值给网络θ',θ'网络重复利用步骤S3中采集的样本数据更新M次,每次按照梯度公式(4)进行梯度计算,更新自己的网络参数;Critic网络φ进行B次参数的更新,每次更新是对优势函数Aθ'进行梯度下降算法,尽量减小优势函数的值,从而优化θ'网络策略,然后停止更新;
式中表示的是需要优化的目标函数,对其进行梯度上升计算以求得最大的期望奖励;表示的是奖励期望值;st表示智能体在t时刻的状态、at表示智能体在t时刻采取的动作;πθ'表示的是θ'网络的策略,表示的是智能体在某个特定状态下采取某个特定动作的概率;Aθ'(st,at)表示θ'网络的优势函数,用来表示当前时刻采取的动作比平均动作好多少,如果优势函数大于0,则继续提高这个策略的概率,如果小于0,则减少这个策略的概率;
ratiot(θ)为表示的是两个网络策略的比值;clip是裁剪函数,当这两个网络的动作概率分布相差太远则进行裁剪,即当ratiot(θ)的值小于1-ε,则取1-ε;如果ratiot(θ)的值大于1+ε,则取1+ε。
进一步,步骤S4-S5中,网络θ获得网络θ'训练过的新参数,多线程共享到全局PPO网络的新参数,当每个线程的在这个回合的步骤数达到T的时候这一回合的训练结束,否则返回步骤S2。
进一步,步骤S4-S5中,回合数达到N的时候终止训练,否则进行下一回合的训练,重新初始化主用户和次级用户的初始功率,获得初始状态s0,继续从步骤S2开始进行迭代训练。
本发明的有益效果在于:基于多线程的DPPO算法训练后的次级用户网络可以达到与单线程的PPO算法同样效果,次级用户可以在不同的参数情况下学习到最优的连续功率控制策略,提升了训练所需的样本采样时间,主网络可以在短时间收集到训练所需的样本数据,DPPO算法的训练速度明显提升,有效的缩短了训练的时间。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为认知无线网络中频谱共享场景示意图;
图2为基于分布式PPO算法的自适应连续功率控制方法流程示意图;
图3为DPPO算法与PPO算法训练后的网络系统容量对比图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1~图3,为一种基于分布式PPO算法的自适应连续功率控制方法,在图1的认知无线网络场景中使用的PPO算法可以帮助次级用户在复杂的环境中有效的学习到最优的连续功率控制策略,实现与主用户频谱资源的共享。
PPO算法是一种基于AC框架的深度强化学习算法,具有人工神经网络的PPO算法可以处理无限的状态空间环境,而且它是基于策略的方法,可以处理无限的动作空间,很符合本文提出的在复杂环境中实现次级用户智能连续功率控制,以便共享主用户频谱资源的目标。
PPO算法主要比较好的解决了传统基于策略的方法中对更新步数敏感和网络更新效率过慢的问题。这主要是PPO算法采用了重要性采样的方法将on-policy的方法转变为了off-policy的方法,可以反复使用经验数据,提升了网络的更新效率,并且通过加入限制更新步长的方法,解决了策略方法对更新步长过于敏感的问题。传统的策略方法是用一个网络θ执行参数化后的策略πθ去与环境交互,采样数据和训练网络,当这个网络的参数更新后,以前根据这个策略采集到的数据不能再用来训练这个网络,需要用新的策略重新采样数据,这就会导致网络对样本信息的利用率不高,参数更新效率很低,造成巨大的时间消耗。重要性采样的方法是构建一个输出动作概率分布与网络θ很相近的网络θ'去与环境交互采用样本数据,然后执行策略πθ'去训练网络θ若干次,由于网络θ'的参数是固定不变的,因此实现了对采样数据的重复利用,提高了网络的更新效率。在传统的策略梯度方法中,梯度计算公式为:
采用重要性采样的方法后,可以将(1.1)式变为:
于是得到了新的基于PPO算法的目标函数:
其中Jθ′(θ)代表的含义与环境互动的网络θ'更新网络θ。这样就将on-policy的方法转换为了off-policy的方法,可以实现对采样数据的重复利用,然而传统策略方法中对更新步长敏感的问题依然存在,即如果这两个网络的输出动作概率分布相差太远的话,就会导致训练很难收敛,为了使这两个网络的分布不会相差太远,PPO算法在(1.3)式中又增加了限制条件,如下所示:
式中ratiot(θ)为表示的是两个网络策略的比值,clip是裁剪函数,当这两个网络的动作概率分布相差太远则进行裁剪,即当ratiot(θ)的值小于1-ε,则取1-ε;如果ratiot(θ)的值大于1+ε,则取1+ε,一般ε的值为0.1或0.2。这样就可以有效的防止过大的更新,解决了策略方法对更新步长敏感的问题。
PPO算法的具体步骤包括:
1.初始化Actor网络的参数θ和另一个网络θ',Critic网络的参数φ;初始化θ'网络的更新次数M和Critic网络的更新次数B等;初始化传感器数量以及干扰误差等环境参数等;初始化网络训练的回合数N,每回合的迭代步骤数T以及采样的批量步数Batchsize等;初始化主用户和次级用户的功率,代入主用户的功率控制策略得到下一个时间帧的功率,进而获得环境的初始状态s0。
2.训练开始,Actor网络执行πθ采集样本数据{st,at,rt},执行Batchsize步后,计算累积函数优势函数Aθ,并将网络θ的参数赋值给网络θ'。
3.θ'网络重复利用步骤2中采集的样本数据更新M次,每次更新是按照梯度公式(1.4)进行梯度计算,更新自己的网络参数;Critic网络φ进行B次参数的更新,每次更新是对优势函数Aθ'进行梯度下降算法,尽量减小优势函数的值,从而优化θ'网络策略。
4.网络θ获得网络θ'训练过的新参数。
5.当这一回合的步骤数达到T的时候终止这一回合的训练,否则继续重复步骤2。
6.回合数达到N的时候终止训练,否则进行下一回合的训练,重新初始化主用户和次级用户的初始功率,获得初始状态s0,继续重复步骤2进行迭代训练。
但是由于深度神经网络的参数量比较大,使用PPO方法在大量的训练中迭代更新这些参数会导致复杂度比较高,训练时间较长。基于此,如图2所示,本发明提出了一种分布式的PPO(Distributed PPO,DPPO)算法来提高训练的速度,减少训练时间。与PPO方法不同的是,DPPO具有多个副网络和一个主网络,副网络共享主网络的策略参数,在训练中副网络执行主网络的策略平行的在各自的环境中收集样本信息,并将样本传递给主网络,主网络根据这些副网络传递的样本信息进行训练,更新策略参数,之后多个副网络继续用主网络更新后的新策略参数继续并发的收集样本数据给主网络训练,直到训练结束。通过这种方式,提升了训练所需的样本采样时间,主网络可以在短时间收集到训练所需的样本数据,实验结果表明,DPPO算法的训练速度明显提升,有效的缩短了训练的时间。
DPPO算法是在PPO算法的基础上增加了多个线程去采集数据的方法。这些线程共享一个全局的PPO网络,它们执行这个全局PPO网络的策略在各自的环境中并发的收集样本数据信息,它们并不自己计算梯度,只负责将收集的样本信息传递给全局的PPO网络供其训练,这样做显著的提升了样本信息采集的时间,减少了神经网络的训练时间,下面是具体的步骤。
1.初始化多个线程workers;初始化一个全局的PPO网络参数;其余与1.2节中第一步的初始化参数一致。
2.训练开始,多个workers执行全局PPO网络中Actor网络的策略πθ在各自的环境中采集样本数据{st,at,rt},各自执行Batchsize步后停止采集数据,将采集到的样本信息传递给全局的PPO网络。
3.全局的PPO网络计算累积函数优势函数Aθ,并将网络θ的参数赋值给网络θ',θ'网络重复利用步骤2中采集的样本数据更新M次,每次按照梯度公式(1.4)进行梯度计算,更新自己的网络参数;Critic网络φ进行B次参数的更新,每次更新是对优势函数Aθ'进行梯度下降算法,尽量减小优势函数的值,从而优化θ'网络策略,然后停止更新。
4.网络θ获得网络θ'训练过的新参数,多线程共享到全局PPO网络的新参数,当每个线程的在这个回合的步骤数达到T的时候这一回合的训练结束,否则继续重复步骤2。
5.回合数达到N的时候终止训练,否则进行下一回合的训练,重新初始化主用户和次级用户的初始功率,获得初始状态s0,继续从步骤2开始进行迭代训练。
图3为DPPO算法与PPO算法训练后的网络系统容量对比试验仿真结果,图3中PU-DPPO代表在DPPO算法中主用户的容量,SU-DPPO代表在DPPO算法中次级用户的容量,PU-PPO代表在PPO算法中主用户的容量,SU-PPO代表在DPPO算法中次级用户的容量。从仿真结果可以看出基于DPPO算法训练后的系统容量与PPO算法训练后的系统容量很接近,这证明了DPPO算法的有效性,并且在实验中通过对训练时间的记录发现,基于DPPO的算法训练时间为261秒,基于PPO算法的训练时间为350秒,这证明了DPPO算法进一步的提高了网络训练的速度。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (5)
1.一种基于分布式PPO算法的自适应连续功率控制方法,其特征在于:包括以下步骤:
S1:首先用多个线程代表多个副网络,所述多个副网络共享一个全局PPO网络策略参数,对所有参数进行初始化,包括初始化多个线程workers;初始化一个全局的PPO网络参数;初始化Actor网络的参数θ和另一个网络θ',Critic网络的参数φ;初始化θ'网络的更新次数M和Critic网络的更新次数B;初始化传感器数量以及干扰误差等环境参数;初始化网络训练的回合数N,每回合的迭代步骤数T以及采样的批量步数Batchsize;初始化主用户和次级用户的功率,代入主用户的功率控制策略得到下一个时间帧的功率,进而获得环境的初始状态s0;
S2:所述多个线程并发地执行全局PPO网络的策略,平行在各自不同的环境中去收集一定批量的数据信息;
S3:所述多个线程将收集到的样本数据传送给全局PPO网络,多个线程停止收集样本数据;
S4:所述全局PPO网络根据多个线程传递过来的样本数据训练网络,更新策略参数;
S5:所述全局PPO网络更新参数后,停止更新参数,并控制所述多个线程继续并发地收集样本数据信息,然后重复步骤S4,直到任务结束;
步骤S4-S5中,全局PPO网络计算累积函数优势函数Aθ,并将网络θ的参数赋值给网络θ',θ'网络重复利用步骤S3中采集的样本数据更新M次,每次按照梯度公式(4)进行梯度计算,更新自己的网络参数;Critic网络φ进行B次参数的更新,每次更新是对优势函数Aθ'进行梯度下降算法,尽量减小优势函数的值,从而优化θ'网络策略,然后停止更新;
clip(ratiot(θ),1-ε,1+ε)Aθ′(st,at))]
式中表示的是需要优化的目标函数,对其进行梯度上升计算以求得最大的期望奖励;表示的是奖励期望值;st表示智能体在t时刻的状态、at表示智能体在t时刻采取的动作;πθ'表示的是θ'网络的策略,表示的是智能体在某个特定状态下采取某个特定动作的概率;Aθ'(st,at)表示θ'网络的优势函数,用来表示当前时刻采取的动作比平均动作好多少,如果优势函数大于0,则继续提高这个策略的概率,如果小于0,则减少这个策略的概率;
2.根据权利要求1所述的基于分布式PPO算法的自适应连续功率控制方法,其特征在于:步骤S2中,多个workers执行全局PPO网络中Actor网络的策略πθ在各自的环境中采集样本数据{st,at,rt}。
3.根据权利要求2所述的基于分布式PPO算法的自适应连续功率控制方法,其特征在于:步骤S3中,多个线程workers各自执行Batchsize步后停止采集数据,将采集到的样本信息传递给全局的PPO网络。
4.根据权利要求1所述的基于分布式PPO算法的自适应连续功率控制方法,其特征在于:步骤S4-S5中,网络θ获得网络θ'训练过的新参数,多线程共享到全局PPO网络的新参数,当每个线程的在这个回合的步骤数达到T的时候这一回合的训练结束,否则返回步骤S2。
5.根据权利要求4所述的基于分布式PPO算法的自适应连续功率控制方法,其特征在于:步骤S4-S5中,回合数达到N的时候终止训练,否则进行下一回合的训练,重新初始化主用户和次级用户的初始功率,获得初始状态s0,继续从步骤S2开始进行迭代训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110469413.4A CN113191487B (zh) | 2021-04-28 | 2021-04-28 | 基于分布式ppo算法的自适应连续功率控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110469413.4A CN113191487B (zh) | 2021-04-28 | 2021-04-28 | 基于分布式ppo算法的自适应连续功率控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113191487A CN113191487A (zh) | 2021-07-30 |
CN113191487B true CN113191487B (zh) | 2023-04-07 |
Family
ID=76980163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110469413.4A Active CN113191487B (zh) | 2021-04-28 | 2021-04-28 | 基于分布式ppo算法的自适应连续功率控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113191487B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116629461B (zh) * | 2023-07-25 | 2023-10-17 | 山东大学 | 一种主动配电网分布式优化方法、系统、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105050176A (zh) * | 2015-05-29 | 2015-11-11 | 重庆邮电大学 | 认知无线电网络中基于中断概率约束的斯坦克尔伯格博弈功率控制方法 |
CN110852448A (zh) * | 2019-11-15 | 2020-02-28 | 中山大学 | 一种基于多智能体强化学习的合作型智能体的学习方法 |
CN111526592A (zh) * | 2020-04-14 | 2020-08-11 | 电子科技大学 | 一种用于无线干扰信道中的非协作多智能体功率控制方法 |
CN112162861A (zh) * | 2020-09-29 | 2021-01-01 | 广州虎牙科技有限公司 | 线程分配方法、装置、计算机设备及存储介质 |
CN112668235A (zh) * | 2020-12-07 | 2021-04-16 | 中原工学院 | 基于离线模型预训练学习的ddpg算法的机器人控制方法 |
CN112700664A (zh) * | 2020-12-19 | 2021-04-23 | 北京工业大学 | 一种基于深度强化学习的交通信号配时优化方法 |
CN112700663A (zh) * | 2020-12-23 | 2021-04-23 | 大连理工大学 | 基于深度强化学习策略的多智能体智能信号灯路网控制方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160267380A1 (en) * | 2015-03-13 | 2016-09-15 | Nuance Communications, Inc. | Method and System for Training a Neural Network |
US11509542B2 (en) * | 2018-05-02 | 2022-11-22 | Telefonaktiebolaget Lm Ericsson (Publ) | First network node, third network node, and methods performed thereby, for handling a performance of a radio access network |
US20210103286A1 (en) * | 2019-10-04 | 2021-04-08 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Systems and methods for adaptive path planning |
-
2021
- 2021-04-28 CN CN202110469413.4A patent/CN113191487B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105050176A (zh) * | 2015-05-29 | 2015-11-11 | 重庆邮电大学 | 认知无线电网络中基于中断概率约束的斯坦克尔伯格博弈功率控制方法 |
CN110852448A (zh) * | 2019-11-15 | 2020-02-28 | 中山大学 | 一种基于多智能体强化学习的合作型智能体的学习方法 |
CN111526592A (zh) * | 2020-04-14 | 2020-08-11 | 电子科技大学 | 一种用于无线干扰信道中的非协作多智能体功率控制方法 |
CN112162861A (zh) * | 2020-09-29 | 2021-01-01 | 广州虎牙科技有限公司 | 线程分配方法、装置、计算机设备及存储介质 |
CN112668235A (zh) * | 2020-12-07 | 2021-04-16 | 中原工学院 | 基于离线模型预训练学习的ddpg算法的机器人控制方法 |
CN112700664A (zh) * | 2020-12-19 | 2021-04-23 | 北京工业大学 | 一种基于深度强化学习的交通信号配时优化方法 |
CN112700663A (zh) * | 2020-12-23 | 2021-04-23 | 大连理工大学 | 基于深度强化学习策略的多智能体智能信号灯路网控制方法 |
Non-Patent Citations (4)
Title |
---|
Emergence of Locomotion Behaviours in Rich Environments;Nicolas Heess等;《arXiv:Artificial Intelligence》;20170731;第1-14页 * |
Optimal Energy Management of Energy Internet: A Distributed Actor-Critic Reinforcement Learning Method;Yijun Cheng等;《2020 American Control Conference (ACC)》;20200727;第521-526页 * |
Proximal Policy Optimization Based Continuous Intelligent Power Control in Cognitive Radio Network;Fan Zishen等;《2020 IEEE 6th International Conference on Computer and Communications (ICCC)》;20210212;第820-824页 * |
认知无线网络中基于深度强化学习的频谱共享模型与算法研究;范子申;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20220315;第24-34页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113191487A (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112668128B (zh) | 联邦学习系统中终端设备节点的选择方法及装置 | |
CN110691422B (zh) | 一种基于深度强化学习的多信道智能接入方法 | |
CN111556461B (zh) | 一种基于深度q网络的车载边缘网络任务分发卸载方法 | |
CN113573324B (zh) | 工业物联网中协作式任务卸载和资源分配的联合优化方法 | |
CN113873022A (zh) | 一种可划分任务的移动边缘网络智能资源分配方法 | |
CN112598150B (zh) | 一种在智能电厂中基于联邦学习提升火灾检测效果的方法 | |
CN112367353A (zh) | 基于多智能体强化学习的移动边缘计算卸载方法 | |
CN113225377B (zh) | 物联网边缘任务卸载方法及装置 | |
CN114285853B (zh) | 设备密集型工业物联网中基于端边云协同的任务卸载方法 | |
CN110336620B (zh) | 一种基于mac层公平接入的ql-uacw退避方法 | |
CN111262638B (zh) | 基于高效样本学习的动态频谱接入方法 | |
CN113469325A (zh) | 一种边缘聚合间隔自适应控制的分层联邦学习方法、计算机设备、存储介质 | |
CN109787696B (zh) | 基于案例推理与合作q学习的认知无线电资源分配方法 | |
CN113191487B (zh) | 基于分布式ppo算法的自适应连续功率控制方法 | |
Shahriari et al. | Generic online learning for partial visible dynamic environment with delayed feedback: Online learning for 5G C-RAN load-balancer | |
CN113780576A (zh) | 基于奖励自适应分配的合作多智能体强化学习方法 | |
CN112667406A (zh) | 一种云边融合异构网络中任务卸载与数据缓存方法 | |
CN113613332B (zh) | 基于协作分布式dqn联合模拟退火算法的频谱资源分配方法和系统 | |
CN117119486B (zh) | 一种保障多小区蜂窝网长期用户速率的深度无监督学习资源分配方法 | |
CN114090108A (zh) | 算力任务执行方法、装置、电子设备及存储介质 | |
Sharma et al. | FEEL-enhanced Edge Computing in Energy Constrained UAV-aided IoT Networks | |
CN116542319A (zh) | 边缘计算环境中基于数字孪生的自适应联邦学习方法及系统 | |
CN116193516A (zh) | 一种物联网场景下用于高效联邦学习的成本优化方法 | |
CN114942799A (zh) | 云边环境下基于强化学习的工作流调度方法 | |
CN112134812B (zh) | 一种基于网络带宽分配的分布式深度学习性能优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |