CN114071482A - 一种认知无线电网络中AoI约束下的网络吞吐量优化方法 - Google Patents
一种认知无线电网络中AoI约束下的网络吞吐量优化方法 Download PDFInfo
- Publication number
- CN114071482A CN114071482A CN202111334459.1A CN202111334459A CN114071482A CN 114071482 A CN114071482 A CN 114071482A CN 202111334459 A CN202111334459 A CN 202111334459A CN 114071482 A CN114071482 A CN 114071482A
- Authority
- CN
- China
- Prior art keywords
- aoi
- channel
- cognitive radio
- action
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001149 cognitive effect Effects 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000005457 optimization Methods 0.000 title claims abstract description 11
- 238000003062 neural network model Methods 0.000 claims abstract description 27
- 230000000875 corresponding effect Effects 0.000 claims abstract description 9
- 238000010008 shearing Methods 0.000 claims abstract description 3
- 230000005540 biological transmission Effects 0.000 claims description 27
- 230000007774 longterm Effects 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000956 alloy Substances 0.000 description 1
- 229910045601 alloy Inorganic materials 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000037351 starvation Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/16—Central resource management; Negotiation of resources or communication parameters, e.g. negotiating bandwidth or QoS [Quality of Service]
- H04W28/18—Negotiating wireless communication parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W16/00—Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
- H04W16/18—Network planning tools
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W16/00—Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
- H04W16/22—Traffic simulation tools or models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明公开了一种认知无线电网络中AoI约束下的网络吞吐量优化方法,将训练好的神经网络模型部署在次级接收器上,初始化训练好的神经网络模型,将认知无线电网络的当前状态空间输入到所述神经网络模型,获得神经网络模型输出的动作空间。然后据当前时刻信道状态是否繁忙,对神经网络模型输出的动作空间进行剪切,得到符合当前信道状态的动作,将获得的动作信息广播给次级发射器,次级发射器执行相应的动作,并将吞吐量结果反馈给次级接收器。本发明引入了AoI指标来测量接收器所需的数据新鲜度,时间复杂度极低,不仅优化了长期的吞吐量,也保证了接收数据的新鲜度,避免次级接收器掌握的数据过于陈旧。
Description
技术领域
本申请属于网络吞吐量优化技术领域,尤其涉及一种认知无线电网络中AoI约束下的网络吞吐量优化方法。
背景技术
RF(Radio Frequency)无线供能技术有效地缓解了无线网络中能量匮乏的问题。相较于如太阳能有设备昂贵、供能不稳定等缺点,RF供能技术可以提供稳定的、大范围的无线供能。该技术可广泛应用于智慧家居、智慧医疗等物联网应用。此外,认知无线电技术使次级用户找寻可用机会接入授权频谱,而不削弱授权用户传输的服务质量,有效地缓解了当前授权频谱利用率较低的问题。环境反向散射(ambient backscatter,AB)技术使次级用户通过调制环境RF信号(如电视信号)来传输自己的数据,既缓解了可用频谱不足的问题,又缓解了供能困难的问题,同时,还无需为反向散射设备部署专用的RF信号源。
在RF(Radio Frequency)供能环境反向散射辅助的认知无线电网络中,存在次级接收器需要保证更新信息的时效性场景,如智慧医疗、灾难监测等领域,因此需要无线节点对监测对象进行实时监测。而当前的指标,如吞吐量指标和延迟指标都无法保证接收器所需的数据新鲜度。
发明内容
本申请的目的是提供一种认知无线电网络中AoI约束下的网络吞吐量优化方法,以保证在AoI约束的前提下,优化次级网络长期吞吐量。
为了实现上述目的,本申请技术方案如下:
一种认知无线电网络中AoI约束下的网络吞吐量优化方法,所述认知无线电网络包括信号源、次级发射器和次级接收器,所述认知无线电网络中AoI约束下的网络吞吐量优化方法,包括:
将训练好的神经网络模型部署在次级接收器上,初始化训练好的神经网络模型;
将认知无线电网络的当前状态空间输入到所述神经网络模型,获得神经网络模型输出的动作空间;
据当前时刻信道状态是否繁忙,对神经网络模型输出的动作空间进行剪切,得到符合当前信道状态的动作;
将获得的动作信息广播给次级发射器,次级发射器执行相应的动作,并将吞吐量结果反馈给次级接收器。
进一步的,所述状态空间包括能量状态空间、信道增益状态空间、信道状态空间和AoI状态空间,其中:
能量状态空间为Sc={(ct,0,ct,1,....,ct,N-1);ct,i∈(0,C)},其中ct,i表示次级发射器STi的初始能量,i表示次级发射器ST的序号;
信道增益状态空间为Sg={(ρt,h,ρt,g)},ρt,h,ρt,g分别表示从次级发射器到次级接收器的信道衰减,以及从信号源到次级接收器的信道衰减;
信道状态空间为Sb={bt;bt∈{0,1}},其中bt=1表示信道繁忙,bt=0表示信道空闲;
AoI状态空间:Sa={(at,0,at,1,....,at,N-1);at,i∈(1,amax)},其中at,i表示关次级发射器于STi的AoI,amax表示次级接收器可容忍的最大AoI。
进一步的,所述动作空间信道状态为繁忙时的动作空间A_1和信道状态为空闲时的动作空间A_0。
进一步的,所述神经网络模型在执行动作空间的奖励函数为:
进一步的,所述认知无线电网络中AoI约束下的网络吞吐量优化方法,还包括:
次级接收器根据接收到的反馈,更新下一帧的状态空间。
本申请提出的一种认知无线电网络中AoI约束下的网络吞吐量优化方法,引入了AoI指标来测量接收器所需的数据新鲜度,时间复杂度极低;利用无需做离散化的连续状态和动作空间,不会丢弃空间的重要信息;不仅优化了长期的吞吐量,也保证了接收数据的新鲜度,避免次级接收器掌握的数据过于陈旧。
附图说明
图1为认知无线电网络的结构示意图;
图2为本申请认知无线电网络中AoI约束下的网络吞吐量优化方法流程图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
AoI是一种性能指标,其作用是测量从数据生成到接收器成功收到最新数据所经过的时间。与传统的延迟度量不同,AoI是从目的接收器的角度判定接收数据的及时性。在保证AoI约束的前提下,优化次级网络长期吞吐量,是一个非常值得研究的问题。这不仅提高了次级网络的吞吐量,也保证了接收数据的新鲜度,避免次级接收器掌握的数据过于陈旧。本申请考虑次级接收器根据当前帧的信道信息,如信道繁忙与否、信道增益,各次级发射器的可用能量,次级接收器中关于次级发射器的AoI状态,来决策各次级发射器的时间调度和能量分配。
如图1所示的环境反向散射认知无线电网络中,包括信号源PT、次级发射器ST和次级接收器Gateway。信号源可以为电视塔、WiFi接入点、广播基站或蜂窝基站等。图1中实处了N个次级发射器和一个次级接收器。每个次级发射器ST配备一个有限容量C的电池和单天线,以时分复用的方式向次级接收器Gateway传输数据。次级接收器Gateway配备单天线,有线能源供能,负责接收次级发射器ST发送的数据,记录和更新关于每个次级发射器ST的AoI。次级接收器Gateway主要任务是根据当前的状态信息(信道状态、信道增益、ST的能量、AoI)负责进行多个ST的时间调度和能量分配管理,以期在AoI的约束下优化次级网络长期吞吐量。上述认知无线电网络以T为一个帧周期,每个帧由一个或多个时隙组成。时隙长度可以不同,由次级接收器Gateway控制。
次级发射器ST根据信道状态来执行不同的行为,当信道状态为繁忙时,ST以时分复用的方式执行AB模式传输,在其他ST执行AB模式传输时,未进行AB模式传输的ST捕获能量;当信道状态为空闲时,STs以时分复用的方式根据Gateway为其分配的可消耗能量进行overlay模式传输。AB模式传输时,ST通过调制是否反射PT信号来传输自己的数据,如ST反射PT信号,则表示传输1,反之则表示传输0。Overlay模式传输时,当信道繁忙时,ST不传输数据;当信道空闲时,ST以独占信道的方式传输数据。
本申请提供的一种认知无线电网络中AoI约束下的网络吞吐量优化方法,如图2所示,包括:
步骤S1、将训练好的神经网络模型部署在次级接收器上,初始化训练好的神经网络模型。
本申请扩展了deep deterministic policy gradient(DDPG)算法,使其适应两个动作空间。DDPG采用卷积神经网络作为策略网络和Q网络,输入状态,来寻找最优执行动作。
在本申请中,状态空间包括:
能量状态空间:Sc={(ct,0,ct,1,....,ct,N-1);ct,i∈(0,C)},其中ct,i表示STi的初始能量,i表示次级发射器ST的序号;
信道增益状态空间:Sg={(ht,0,ht,1,....,ht,N-1,gt,0,gt,1,...,gt,N-1)},其中ht,i表示从STi到Gateway的信道增益,gt,i表示从PT到Gateway的信道增益。
为了加速收敛,本申请重新定义了信道增益状态空间Sg。根据(ρt,h,ρt,g分别表示从ST到Gateway,以及从PT到Gateway的信道衰减,di表示STi到Gateway的距离,Di表示PT到Gateway的距离,δ表示路径损失指数),Sg可以重新表示为:
Sg={(ρt,h,ρt,g)};
信道状态空间:Sb={bt;bt∈{0,1}},其中bt=1表示信道繁忙,bt=0表示信道空闲;
AoI状态空间:Sa={(at,0,at,1,....,at,N-1);at,i∈(1,amax)},其中at,i表示关于STi的AoI,amax表示Gateway可容忍的最大AoI;
最后,状态空间为S=Sc×Sa×Sg×Sb。
在本申请中,ST可执行的动作因信道状态而有所不同,因此本申请定义两个动作空间,A_1和A_0,A_1表示信道状态为繁忙时的动作空间,A_0表示信道状态为空闲时的动作空间。
此外,本申请的目标是在AoI的约束下,寻找优化次级网络长期吞吐量的时间和能量管理策略π。因此,即时奖励是吞吐量与AoI的函数。由于信道状态不同,ST执行的动作不同,因此,本申请的两个即时奖励函数为:当信道状态为繁忙时,奖励函数为rt 1(st,at),当信道状态为空闲时,奖励函数为rt 0(st,at),定义如下:
其中,W为传输带宽,η为反射系数,σ2为信道噪声功率,λt,i∈{0,1}表示是否传输成功。
在训练神经网络模型时,一般包括如下步骤:
步骤S1.1、初始化训练轮次TL、每一轮次的帧数TS、actor、critic的学习率LRA和LRC、长期优化所需的折扣因子r、软更新因子τ、小批量尺寸BS、探索噪声Nt和探索噪声的衰减因子κ,清空重放记忆池M,随机初始化actor网络和critic网络的权重θa和θc,并分别将actor target网络和critic target网络的权重初始化为θa-←θa,θc-←θc。
步骤S1.2、随机从状态空间中取出一个状态st。
步骤S1.3、基于当前的θa和状态,得到动作at=π(st|θa)+Nt,其中,如果st中的bt=1,那么at符合A_1的动作要求,反之符合A_0的动作要求。
步骤S1.4、根据st中的bt,根据A_1或A_0中的约束将at中超出的部分剪切,以符合相应动作空间要求。
步骤S1.5、将动作信息(αt,0,αt,1,....,αt,N-1)或(βt,0,βt,1,...,βt,N-1,et,0,et,1,...,et,N-1)广播给ST,ST根据动作信息执行相应操作,并将吞吐量结果反馈给Gateway。
步骤S1.6、Gateway根据接收到的反馈根据st中的bt计算奖励,rt 1(st,at)或rt 0(st,at),并进行如下的状态更新,
步骤S1.7、检测st+1,g和st+1,b,并与ct和at拼接在一起,作为下一帧的状态st+1={(ct+1,0,ct+1,1,....,ct+1,N-1),(at,0,at,1,....,at,N-1),(ρt,h,ρt,g),bt}。
步骤S1.8、将元组(st,at,rt,st+1)存入记忆库中,并执行Nt=Nt×κ。
步骤S1.9、按照DDPG算法训练和更新方法来更新神经网络的权重。
需要说明的是,关于神经网络模型的训练,已经是比较成熟的技术,这里不再赘述。
在训练好神经网络模型后,将其部署在次级接收器,然后初始化网络参数,如ST的数量N,ST与PT的距离D,ST与Gateway的距离d,ST的电池容量C,最大的AoI amax,反向散射系数η。
步骤S2、将认知无线电网络的当前状态空间输入到所述神经网络模型,获得神经网络模型输出的动作空间。
为了获取认知无线电网络的具体执行策略,来优化网络吞吐量,本申请将认知无线电网络的当前状态空间输入到所述神经网络模型,获得神经网络模型输出的动作空间,即得到动作at=π(st|θa)+Nt,其中,如果st中的bt=1,那么at符合A_1的动作要求,反之符合A_0的动作要求。
步骤S3、根据当前时刻信道状态是否繁忙,对神经网络模型输出的动作进行调整剪切,得到符合当前信道状态所对应的动作空间要求的动作。详细方法如下:
基于st中的bt,根据A_1或A_0中的约束将at中违背约束的部分调整剪切:如,当bt=0,N=3,T=1,ct=(3,1,4),得到的动作为at=(1,0,0.5,4,0,2),由于此时的动作应该满足动作空间A_0中的约束因此,调整at的β部分,归一化为(0.67,0,0.33),将能量部分剪切为(3,0,2),调整剪切后的at为(0.67,0,0.33,3,0,2)。
步骤S4、将获得的动作信息广播给次级发射器,次级发射器执行相应的动作,并将吞吐量结果反馈给次级接收器。
将动作信息(αt,0,αt,1,....,αt,N-1)或(βt,0,βt,1,...,βt,N-1,et,0,et,1,...,et,N-1)广播给ST,ST根据动作信息执行相应操作,并将吞吐量结果反馈给Gateway。
本申请的另一个实施,所述认知无线电网络中AoI约束下的网络吞吐量优化方法,还包括:
次级接收器根据接收到的反馈,更新下一帧的状态空间。
本实施例中,Gateway根据接收到的反馈,按照公式(5,6)进行状态更新。
然后检测st+1,g和st+1,b,并与ct和at拼接在一起,作为下一帧的状态st+1={(ct+1,0,ct+1,1,....,ct+1,N-1),(at,0,at,1,....,at,N-1),(ρt,h,ρt,g),bt}。此后再次回到步骤S2继续预测下一帧的动作,如此循环,使得次级发射器执行相应的动作,以优化网络吞吐量。
需要说明的是,在公式(1)和(2)中,可以将吞吐量限制到10以内,方便训练。而当at,i≥amax时,由于AoI超出了约束,则给一个较大的惩罚。当bt=1时,这是因为,如果AoI超出约束,则分配越多的时间和能量,越是浪费,因此,惩罚值越大。m的取值根据amax设置。举例来说,如果amax=5,则m≥20;如果amax=10,则m≥10。如此,哪怕的结果很小,惩罚值也会超过amax。
在公式(3)-(6)中,λt,i=1表示传输成功,λt,i=0表示传输失败。AB模式传输和overlay模式传输都有一定的失败概率,而当STi中的可用能量小于一个最小值,不足以执行AB模式传输和overlay模式最低传输时,λt,i=0。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (5)
1.一种认知无线电网络中AoI约束下的网络吞吐量优化方法,所述认知无线电网络包括信号源、次级发射器和次级接收器,其特征在于,所述认知无线电网络中AoI约束下的网络吞吐量优化方法,包括:
将训练好的神经网络模型部署在次级接收器上,初始化训练好的神经网络模型;
将认知无线电网络的当前状态空间输入到所述神经网络模型,获得神经网络模型输出的动作空间;
据当前时刻信道状态是否繁忙,对神经网络模型输出的动作空间进行剪切,得到符合当前信道状态的动作;
将获得的动作信息广播给次级发射器,次级发射器执行相应的动作,并将吞吐量结果反馈给次级接收器。
2.根据权利要求1所述的认知无线电网络中AoI约束下的网络吞吐量优化方法,其特征在于,所述状态空间包括能量状态空间、信道增益状态空间、信道状态空间和AoI状态空间,其中:
能量状态空间为Sc={(ct,0,ct,1,....,ct,N-1);ct,i∈(0,C)},其中ct,i表示次级发射器STi的初始能量,i表示次级发射器ST的序号;
信道增益状态空间为Sg={(ρt,h,ρt,g)},ρt,h,ρt,g分别表示从次级发射器到次级接收器的信道衰减,以及从信号源到次级接收器的信道衰减;
信道状态空间为Sb={bt;bt∈{0,1}},其中bt=1表示信道繁忙,bt=0表示信道空闲;
AoI状态空间:Sa={(at,0,at,1,....,at,N-1);at,i∈(1,amax)},其中at,i表示关次级发射器于STi的AoI,amax表示次级接收器可容忍的最大AoI。
5.根据权利要求1所述的认知无线电网络中AoI约束下的网络吞吐量优化方法,其特征在于,所述认知无线电网络中AoI约束下的网络吞吐量优化方法,还包括:
次级接收器根据接收到的反馈,更新下一帧的状态空间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111334459.1A CN114071482B (zh) | 2021-11-11 | 2021-11-11 | 一种认知无线电网络中AoI约束下的网络吞吐量优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111334459.1A CN114071482B (zh) | 2021-11-11 | 2021-11-11 | 一种认知无线电网络中AoI约束下的网络吞吐量优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114071482A true CN114071482A (zh) | 2022-02-18 |
CN114071482B CN114071482B (zh) | 2024-03-26 |
Family
ID=80275182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111334459.1A Active CN114071482B (zh) | 2021-11-11 | 2021-11-11 | 一种认知无线电网络中AoI约束下的网络吞吐量优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114071482B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106412927A (zh) * | 2016-09-19 | 2017-02-15 | 西安电子科技大学 | 协同传输能量收集认知无线电网络最佳资源分配方法 |
CN107040323A (zh) * | 2017-04-26 | 2017-08-11 | 北京理工大学 | 一种认知无线电网络中多信道功率带宽联合分配方法 |
WO2018122784A1 (en) * | 2016-12-30 | 2018-07-05 | Tata Consultancy Services Limited | Method and system for managing lighting schedule of lamps |
CN110636715A (zh) * | 2019-08-27 | 2019-12-31 | 杭州电子科技大学 | 一种基于自学习的自动焊接及缺陷检测方法 |
CN112913272A (zh) * | 2018-08-20 | 2021-06-04 | 诺基亚通信公司 | 方法、装置和计算机程序 |
CN113268077A (zh) * | 2021-04-13 | 2021-08-17 | 国网能源研究院有限公司 | 无人机能耗最小化设计方法及装置 |
-
2021
- 2021-11-11 CN CN202111334459.1A patent/CN114071482B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106412927A (zh) * | 2016-09-19 | 2017-02-15 | 西安电子科技大学 | 协同传输能量收集认知无线电网络最佳资源分配方法 |
WO2018122784A1 (en) * | 2016-12-30 | 2018-07-05 | Tata Consultancy Services Limited | Method and system for managing lighting schedule of lamps |
CN107040323A (zh) * | 2017-04-26 | 2017-08-11 | 北京理工大学 | 一种认知无线电网络中多信道功率带宽联合分配方法 |
CN112913272A (zh) * | 2018-08-20 | 2021-06-04 | 诺基亚通信公司 | 方法、装置和计算机程序 |
CN110636715A (zh) * | 2019-08-27 | 2019-12-31 | 杭州电子科技大学 | 一种基于自学习的自动焊接及缺陷检测方法 |
CN113268077A (zh) * | 2021-04-13 | 2021-08-17 | 国网能源研究院有限公司 | 无人机能耗最小化设计方法及装置 |
Non-Patent Citations (1)
Title |
---|
龙彦;张晓倩;方旭明;何蓉;: "基于能量采集认知无线网中的资源分配方案研究", 通信学报, no. 09, 25 September 2018 (2018-09-25) * |
Also Published As
Publication number | Publication date |
---|---|
CN114071482B (zh) | 2024-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Cooperative offloading and resource management for UAV-enabled mobile edge computing in power IoT system | |
Nath et al. | Deep reinforcement learning for dynamic computation offloading and resource allocation in cache-assisted mobile edge computing systems | |
Gupta et al. | Low-complexity, low-regret link rate selection in rapidly-varying wireless channels | |
CN111381499B (zh) | 基于三维空间射频地图学习的网联飞行器自适应控制方法 | |
Gong et al. | Age-of-information-based scheduling in multiuser uplinks with stochastic arrivals: A POMDP approach | |
Yang et al. | Deep reinforcement learning based wireless network optimization: A comparative study | |
Leng et al. | An actor-critic reinforcement learning approach to minimum age of information scheduling in energy harvesting networks | |
Kim et al. | Performance analysis of the energy adaptive MAC protocol for wireless sensor networks with RF energy transfer | |
CN113438315A (zh) | 基于双网络深度强化学习的物联网信息新鲜度优化方法 | |
Chua et al. | Resource allocation for mobile metaverse with the Internet of Vehicles over 6G wireless communications: A deep reinforcement learning approach | |
Hua et al. | GAN-based deep distributional reinforcement learning for resource management in network slicing | |
Jin et al. | Deep reinforcement learning based scheduling for minimizing age of information in wireless powered sensor networks | |
Gong et al. | Hierarchical deep reinforcement learning for age-of-information minimization in irs-aided and wireless-powered wireless networks | |
Diamanti et al. | Resource orchestration in uav-assisted noma wireless networks: A labor economics perspective | |
Kone et al. | Adaptive management of energy consumption, reliability and delay of wireless sensor node: Application to IEEE 802.15. 4 wireless sensor node | |
Zhao et al. | Multi-agent deep reinforcement learning based resource management in heterogeneous V2X networks | |
Rapetswa et al. | Towards a multi-agent reinforcement learning approach for joint sensing and sharing in cognitive radio networks | |
Su et al. | Online policies for throughput maximization of backscatter assisted wireless powered communication via reinforcement learning approaches | |
Sheikhi et al. | AoI-aware status update control for an energy harvesting source over an uplink mmWave channel | |
Ho et al. | A DDPG-based energy efficient federated learning algorithm with SWIPT and MC-NOMA | |
CN109861774B (zh) | 一种认知水声网络接入调度方法 | |
CN114071482A (zh) | 一种认知无线电网络中AoI约束下的网络吞吐量优化方法 | |
CN116193607A (zh) | 基于信息年龄的电力物联网周期性业务数据资源调度方法 | |
Dongare et al. | Deep reinforcement learning for task allocation in energy harvesting mobile crowdsensing | |
CN115580900A (zh) | 一种基于深度强化学习的无人机辅助协作式任务卸载方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |