CN112511250B - 一种基于drl的多无人机空中基站动态部署方法及系统 - Google Patents
一种基于drl的多无人机空中基站动态部署方法及系统 Download PDFInfo
- Publication number
- CN112511250B CN112511250B CN202011406139.8A CN202011406139A CN112511250B CN 112511250 B CN112511250 B CN 112511250B CN 202011406139 A CN202011406139 A CN 202011406139A CN 112511250 B CN112511250 B CN 112511250B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- actor
- time slot
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 91
- 238000003062 neural network model Methods 0.000 claims abstract description 58
- 230000033001 locomotion Effects 0.000 claims abstract description 22
- 238000004891 communication Methods 0.000 claims abstract description 21
- 230000009471 action Effects 0.000 claims description 75
- 230000006870 function Effects 0.000 claims description 54
- 230000009916 joint effect Effects 0.000 claims description 43
- 238000005457 optimization Methods 0.000 claims description 21
- 238000005070 sampling Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000001133 acceleration Effects 0.000 claims description 7
- 230000001174 ascending effect Effects 0.000 claims description 7
- 230000008901 benefit Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000005381 potential energy Methods 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 5
- -1 hydrogen Chemical class 0.000 claims 1
- 239000001257 hydrogen Substances 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 18
- 238000004088 simulation Methods 0.000 description 9
- 239000002245 particle Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000003068 static effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 102100040653 Tryptophan 2,3-dioxygenase Human genes 0.000 description 2
- 101710136122 Tryptophan 2,3-dioxygenase Proteins 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- HTIQEAQVCYTUBX-UHFFFAOYSA-N amlodipine Chemical compound CCOC(=O)C1=C(COCCN)NC(C)=C(C(=O)OC)C1C1=CC=CC=C1Cl HTIQEAQVCYTUBX-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000004134 energy conservation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- RSMUVYRMZCOLBH-UHFFFAOYSA-N metsulfuron methyl Chemical compound COC(=O)C1=CC=CC=C1S(=O)(=O)NC(=O)NC1=NC(C)=NC(OC)=N1 RSMUVYRMZCOLBH-UHFFFAOYSA-N 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/30—Monitoring; Testing of propagation channels
- H04B17/391—Modelling the propagation channel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W16/00—Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
- H04W16/18—Network planning tools
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W16/00—Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
- H04W16/22—Traffic simulation tools or models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/08—Access point devices
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种基于DRL的多无人机空中基站动态部署方法及系统。该方法包括:获取待部署的目标区域范围;根据所述目标区域范围,采用ATG信道模型确定无人机的部署高度;基于所述部署高度、所述目标区域范围内用户分布、无人机数量和更新时间段,构建多无人机基站动态部署的神经网络模型;所述神经网络模型包括Actor网络和Critic网络;基于DRL的训练方式对所述神经网络模型进行训练,得到训练后的Actor网络;基于所述更新时间段内初始时刻每个无人机的位置信息和每个用户的位置信息,采用所述训练后的Actor网络生成每个无人机在所述更新时间段内的运动决策。本发明可以在地面用户位置信息时变条件下,提升无人机基站的通信效能。
Description
技术领域
本发明涉及空中基站部署领域,特别是涉及一种基于DRL的多无人机空中基站动态部署方法及系统。
背景技术
近年来,无人机由于其快速响应和高度灵活等特性,成为了各领域关注、应用的焦点。在未来的民用或军事战场上,天基、空基、地基将会是一体组网,形成一个多层异构的无线网络架构,在万物互联模式之下我们身边的每一个物件都可能是一个智能化设备,构成网络的一个节点,通过网络可以随时将信息回传至云端。在不久的将来,物联网设备将会充斥着我们的生活,随之而来的也有海量的数据通信需求,信息通信与人工智能技术飞速发展之下,无人机作为连接天基、地基的一个中间层,将会起到至关重要的作用。
无人机作为空中基站是属于辅助地面蜂窝网络通信的一种新应用。随着目前数据需求业务的爆炸式增长,一些热点地区,例如拥堵的高架桥、重大体育赛场还有大型的集会场所等,均可能出现地面核心网负载超限的情况,导致当地局部地区的通信业务质量不高甚至中断,这时便可利用无人机作为空中接入节点(Air Access Node,AAN),为地面基站卸载部分业务,缓解固定基站压力,提升用户服务质量(Quality of Service,QoS)。这样的情况还会发生在一些自然灾害地区,例如地震和山洪滑坡导致当地地面基站受损,短时间无法架设固定基站,为满足当地的临时通信需求,无人机可作为空中移动基站,在一定时间内为地面用户提供数据通信的服务。
无人机基站拥有良好的视距链路(Line of Sight,LoS),可以在一定程度上减少非视距链路(Non-line of Sight,NLoS)造成的多径和阴影效应,减少不必要的损耗,在现实部署过程中,部署效益也是一个值得考虑的问题。由于覆盖能力有限,数量有限的无人机通常无法像固定基站一样实现目标区域的全范围覆盖,需要考虑在目标区域内根据地面用户的移动针对性地设计其部署。在实际的应用场景中,往往需要多架无人机根据用户的运动调整自己的3D位置,从而提供更优质的服务,在现有研究当中,缺乏对多无人机基站协作的动态部署方面的设计与考虑。
发明内容
本发明的目的是提供一种基于DRL的多无人机空中基站动态部署方法及系统,以在地面用户位置信息时变条件下,提升无人机基站的通信效能。
为实现上述目的,本发明提供了如下方案:
一种基于DRL的多无人机空中基站动态部署方法,包括:
获取待部署的目标区域范围;
根据所述目标区域范围,采用ATG信道模型确定无人机的部署高度;
基于所述部署高度、所述目标区域范围内用户分布、无人机数量和更新时间段,构建多无人机基站动态部署的神经网络模型;所述神经网络模型包括Actor网络和Critic网络,所述Actor网络用于生成运动决策,所述Critic网络用于拟合价值函数;
基于DRL的训练方式对所述神经网络模型进行训练,得到训练后的Actor网络;
基于所述更新时间段内初始时刻每个无人机的位置信息和每个用户的位置信息,采用所述训练后的Actor网络生成每个无人机在所述更新时间段内的运动决策。
可选的,所述根据所述目标区域范围,采用ATG信道模型确定无人机的部署高度,具体包括:
利用公式PNLoS=1-PLoS确定无人机的NLoS链路概率;其中,PNLoS为无人机的NLoS链路概率;
确定无人机ATG信道模型为:L=PLoSLLoS+PNLoSLNLoS;其中,L为无人机到地面用户传输信号的路径损耗;
基于所述无人机ATG信道模型,根据在所述目标区域范围下,使得无人机到地面用户传输信号的路径损耗最小的无人机到地面用户的直线距离,确定无人机的部署高度。
可选的,所述基于所述部署高度、所述目标区域范围内用户分布、无人机数量和更新时间段,构建多无人机基站动态部署的神经网络模型,具体包括:
其中,Tij表示在更新时间段T时,第i架无人机与第j个地面用户的关联情况,Tij=1表示第i架无人机与第j个地面用户之间相关联,Tij=0表示第i架无人机与第j个地面用户无关联;M为无人机的数量,N为地面用户的数量;xi为第i架无人机在飞行平面的横坐标,yi为第i架无人机在飞行平面的纵坐标,无人机的飞行平面为地面上方处于部署高度的水平面;[xmin,xmax]为无人机在飞行平面的横向边界,[ymin,ymax]为无人机在飞行平面的纵向边界;表示无人机在更新时间段内t时隙移动的距离,vmax为无人机的最大速度;amax为最大加速度;表示在更新时间段内t时隙时第i架无人机的飞行方位角,Δθmax为最大方位角变化量;所述更新时间段包括多个时隙;
基于所述优化目标和约束条件,构建多无人机基站动态部署的神经网络模型;所述神经网络模型中Actor网络的输入为联合状态信息,所述Actor网络的输出为联合动作信息;所述联合状态信息为:所述联合动作信息为:其中,为在t时隙时所有无人机的水平坐标,所述水平坐标包括横坐标和纵坐标,i∈[1,2,…,M];为更新时间段T内地面用户的坐标信息j∈[1,2,…,N];nt为在当前时隙t下,无人机群关联用户的总数。
可选的,所述基于DRL的训练方式对所述神经网络模型进行训练,得到训练后的Actor网络,具体包括:
对于每一个训练回合,初始化联合状态信息;所述神经网络模型包括三个神经网络,分别为Actor_new网络、Actor_old网络和Critic网络;所述Actor_new网络和所述Actor_old网络结构相同,用于输出连续动作的概率分布;所述Critic网络用于拟合价值函数;每一个训练回合包括多次迭代,每次迭代包括多个阶段,每个阶段包括多个时隙;
对于当前训练回合第k次迭代的第m个阶段的第t个时隙,将联合状态信息作为所述Actor_new网络的输入量,输出联合动作;所述联合动作为正态分布参数;
依据所述正态分布参数构建动作的概率分布,采样得到具体动作;
所有无人机均按照采样得到的具体动作移动一个时隙,得到下一个时隙的联合状态信息;
根据奖励函数计算得到当前时隙t的单步奖励;
将当前时隙的经验轨迹(st,at,rt)记录保存在缓存池中;其中,st为当前时隙的联合状态信息,at为当前时隙的联合动作,rt为当前时隙的单步奖励;
判断缓存池是否达到预设的内存块大小;
当缓存池未达到预设的内存块大小时,更新当前时隙,更新当前时隙的联合状态信息,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个时隙;
当缓存池达到预设的内存块大小时,基于所述缓存池中的经验轨迹,用bellman方程计算每个阶段的累积奖励;
将Actor_new网络中的参数赋值给Actor_old网络中的参数;
基于Critic网络计算所述缓存池中每个时隙的状态价值;
根据每个时隙的状态价值和累积奖励,以梯度下降法更新Critic网络中的参数;
将所述缓冲池中所有的联合状态信息输入Actor_new网络和Actor_old网络,得到动作概率分布;
根据所述动作概率分布计算所述缓冲池中每个时隙的联合动作的概率,得到每个时隙的重要性权值;
根据每个时隙的重要性权值和优势函数,采用梯度上升法更新Actor_new网络的参数;
判断当前阶段是否达到最大阶段;
若当前阶段未达到最大阶段,清空所述缓存池中的数据,更新当前阶段,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个阶段;
若当前阶段达到最大阶段,返回“初始化联合状态信息”步骤,进入下一个训练回合;
当达到最大训练回合次数时,判断所有回合的累积奖励是否满足收敛;每个回合的累积奖励为该回合中所有时隙的累积奖励之和;
当训练回合的累积奖励满足收敛时,得到训练好的Actor_new网络模型;
将训练好的Actor_new网络模型确定为训练后的Actor网络;所述训练后的Actor网络使用输出的正态分布均值作为动作分量;
当训练回合的累积奖励不满足收敛时,调整DRL训练方式的超参数或者神经网络模型的结构,重新进行训练,直到累积奖励收敛,得到训练好的Actor_new网络模型。
可选的,所述奖励函数为:
rt=rs+rg+rz+rb;
其中,为奖励基础项,N为地面用户的数量,nt为在当前时隙t下无人机群关联用户的总数;为关于覆盖率β的函数,ξg、λg分别是奖励因子和梯度参数,ξg∈(0,1),λg为大于1的正常数;rz=ξzΔnt是关于覆盖用户数变化量的势能函数,ξz为比例系数,Δnt为当前时隙状态下覆盖数和前一时隙下状态下覆盖数的变化量;rb=κtξb为惩罚项,κt为时隙t时采取输出的联合动作动作后逾越边界的无人机数,ξb为惩罚因子。
本发明还提供一种基于DRL的多无人机空中基站动态部署系统,包括:
目标区域范围获取模块,用于获取待部署的目标区域范围;
部署高度确定模块,用于根据所述目标区域范围,采用ATG信道模型确定无人机的部署高度;
神经网络模型构建模块,用于基于所述部署高度、所述目标区域范围内用户分布、无人机数量和更新时间段,构建多无人机基站动态部署的神经网络模型;所述神经网络模型包括Actor网络和Critic网络,所述Actor网络用于生成运动决策,所述Critic网络用于拟合价值函数;
训练模块,用于基于DRL的训练方式对所述神经网络模型进行训练,得到训练后的Actor网络;
运动决策生成模块,用于基于所述更新时间段内初始时刻每个无人机的位置信息和每个用户的位置信息,采用所述训练后的Actor网络生成每个无人机在所述更新时间段内的运动决策。
可选的,所述部署高度确定模块具体包括:
NLoS链路概率确定单元,用于利用公式PNLoS=1-PLoS确定无人机的NLoS链路概率;其中,PNLoS为无人机的NLoS链路概率;
无人机ATG信道模型确定单元,用于确定无人机ATG信道模型为:L=PLoSLLoS+PNLoSLNLoS;其中,L为无人机到地面用户传输信号的路径损耗;
部署高度确定单元,用于基于所述无人机ATG信道模型,根据使得无人机到地面用户传输信号的路径损耗最小的无人机到地面用户的直线距离,确定无人机的部署高度。
可选的,所述神经网络模型构建模块具体包括:
其中,Tij表示在更新时间段T时,第i架无人机与第j个地面用户的关联情况,Tij=1表示第i架无人机与第j个地面用户之间相关联,Tij=0表示第i架无人机与第j个地面用户无关联;M为无人机的数量,N为地面用户的数量;xi为第i架无人机在飞行平面的横坐标,yi为第i架无人机在飞行平面的纵坐标,无人机的飞行平面为地面上方处于部署高度的水平面;[xmin,xmax]为无人机在飞行平面的横向边界,[ymin,ymax]为无人机在飞行平面的纵向边界;表示无人机在更新时间段内t时隙移动的距离,vmax为无人机的最大速度;amax为最大加速度;表示在更新时间段内t时隙时第i架无人机的飞行方位角,Δθmax为最大方位角变化量;所述更新时间段包括多个时隙;
神经网络模型构建单元,用于基于所述优化目标和约束条件,构建多无人机基站动态部署的神经网络模型;所述神经网络模型中Actor网络的输入为联合状态信息,输出为联合动作信息;所述联合状态信息为:所述联合动作信息为:其中,为在t时隙时所有无人机的水平坐标,所述水平坐标包括横坐标和纵坐标,i∈[1,2,…,M];为更新时间段T内地面用户的坐标信息j∈[1,2,…,N];nt为在当前时隙t下,无人机群关联用户的总数。
可选的,所述训练模块具体包括:
初始化单元,用于对于每一个训练回合,初始化联合状态信息;所述神经网络模型包括三个神经网络,分别为Actor_new网络、Actor_old网络和Critic网络;所述Actor_new网络和所述Actor_old网络结构相同,用于输出连续动作的概率分布;所述Critic网络用于拟合价值函数;每一个训练回合包括多次迭代,每次迭代包括多个阶段,每个阶段包括多个时隙;
Actor_new网络输出单元,用于对于当前训练回合第k次迭代的第m个阶段的第t个时隙,将联合状态信息作为所述Actor_new网络的输入量,输出联合动作;所述联合动作为正态分布参数;
动作采样单元,用于依据所述正态分布参数构建动作的概率分布,采样得到具体动作;
联合状态信息更新单元,用于所有无人机均按照采样得到的具体动作移动一个时隙,得到下一个时隙的联合状态信息;
单步奖励计算单元,用于根据奖励函数计算得到当前时隙t的单步奖励;
缓存池保存单元,用于将当前时隙的经验轨迹(st,at,rt)记录保存在缓存池中;其中,st为当前时隙的联合状态信息,at为当前时隙的联合动作,rt为当前时隙的单步奖励;
判断单元,用于判断缓存池是否达到预设的内存块大小;
时隙迭代单元,用于当缓存池未达到预设的内存块大小时,更新当前时隙,更新当前时隙的联合状态信息,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个时隙;
累积奖励计算单元,用于当缓存池达到预设的内存块大小时,基于所述缓存池中的经验轨迹,用bellman方程计算每个阶段的累积奖励;
Actor_old网络参数更新单元,用于将Actor_new网络中的参数赋值给Actor_old网络中的参数;
状态价值计算单元,用于基于Critic网络计算所述缓存池中每个时隙的状态价值;
Critic网络参数更新单元,用于根据每个时隙的状态价值和累积奖励,以梯度下降法更新Critic网络中的参数;
动作概率分布确定单元,用于将所述缓冲池中所有的联合状态信息输入Actor_new网络和Actor_old网络,得到动作概率分布;
重要性权值计算单元,用于根据所述动作概率分布计算所述缓冲池中每个时隙的联合动作的概率,得到每个时隙的重要性权值;
Actor_new网络参数更新单元,用于根据每个时隙的重要性权值和优势函数,采用梯度上升法更新Actor_new网络的参数;
阶段判断单元,用于判断当前阶段是否达到最大阶段;
阶段更新单元,用于若当前阶段未达到最大阶段,清空所述缓存池中的数据,更新当前阶段,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个阶段;
训练回合更新单元,用于若当前阶段达到最大阶段,返回“初始化联合状态信息”步骤,进入下一个训练回合;
收敛判断单元,用于当达到最大训练回合次数时,判断所有回合的累积奖励是否满足收敛;每个回合的累积奖励为该回合中所有时隙的累积奖励之和;
迭代停止单元,用于当训练回合的累积奖励满足收敛时,得到训练好的Actor_new网络模型;
训练后的Actor网络确定单元,用于将训练好的Actor_new网络模型确定为训练后的Actor网络;所述训练后的Actor网络使用输出的正态分布均值作为动作分量;
重新训练单元,用于当训练回合的累积奖励不满足收敛时,调整DRL训练方式的超参数或者神经网络模型的结构,重新进行训练,直到累积奖励收敛,得到训练好的Actor_new网络模型。
可选的,所述奖励函数为:
rt=rs+rg+rz+rb;
其中,为奖励基础项,N为地面用户的数量,nt为在当前时隙t下无人机群关联用户的总数;为关于覆盖率β的函数,ξg、λg分别是奖励因子和梯度参数,ξg∈(0,1),λg为大于1的正常数;rz=ξzΔnt是关于覆盖用户数变化量的势能函数,ξz为比例系数,需要根据实际环境设计为一个合适大小的值(通常为正常数),综合考虑此部分的奖励值和前部分奖励的值,使其保持在一个合适的大小范围;Δnt为当前时隙状态下覆盖数和前一时隙下状态下覆盖数的变化量,即nt-nt-1,防止其来回在高覆盖和低覆盖之间徘徊“刷分”的行为;rb=κtξb为惩罚项,κt为时隙t时采取输出的联合动作动作后逾越边界的无人机数,ξb为惩罚因子。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明针对多无人机协作模式下对运动用户的实时覆盖问题,提出了一种基于PPO深度强化学习的动态部署方法及系统,在最佳部署高度下,多架无人机依据自身及用户的位置信息,完成状态到最佳移动策略的映射,实现了对运动用户的实时覆盖,解决了传统处理此类动态环境问题时,重复使用启发式或穷举算法带来的时间成本和计算开销巨大问题,相较于最大面积原则的静态部署方法,在目标区域无法实现全覆盖时,同样数量的无人机能够达到更高覆盖率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于DRL的多无人机空中基站动态部署方法的流程示意图;
图2为本发明基于DRL的多无人机空中基站动态部署系统的结构示意图;
图3为本发明仿真实例中每个回合训练累计奖励情况;
图4为本发明仿真实例中一个回合覆盖数变化曲线图;
图5为本发明仿真实例中DRL方法与其他部署算法对比图;
图6为本发明仿真实例中DRL方法与其他部署算法的平均覆盖率对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明基于DRL的多无人机空中基站动态部署方法的流程示意图。如图1所示,本发明基于DRL的多无人机空中基站动态部署方法包括以下步骤:
步骤100:获取待部署的目标区域范围。首先需要获取目标区域的环境、目标区域范围(半径)、目标区域内用户分布、无人机数量等信息,以供后续无人机控制动态控制。
步骤200:根据目标区域范围,采用ATG信道模型确定无人机的部署高度。在不同环境下无人机的ATG信道模型不同,无人机搭载小型化的基站设备,在目标区域上空进行无线覆盖时需要预先考虑待部署区域的环境特性,并针对性地根据待服务区域大小部署数量合适的无人机基站。能耗大小对于无人机基站来说也同样关键,无人机的能源总是有限的,在满足地面用户最低通信需求的情况下,最小化无人机基站功放模块的发射功率可以尽量延长其服务时间,而减少不必要的路径损耗则是一种有效且必要的方式。
ATG信道模型反应信号在空中的传播特性,主要影响问题建模中多无人机基站集群的统一部署高度。确定ATG信道模型的具体过程如下:
1.首先确定待部署区域环境,然后确定对应的概率参数,概率参数如表1所示。
表1不同环境下的概率参数
部署环境 | 概率参数(a,b) |
郊区 | (4.88,0.43) |
城市 | (9.61,0.28) |
密集城市 | (12.08,0.16) |
高层建筑城市 | (27.23,0.12) |
基于表1,可以得到无人机的LoS链路概率
其中a、b为概率参数,取决于所处环境;θ是通信仰角,单位为弧度,是指地面用户与无人机形成通信链路的夹角,θ=arctan(h/R),R为目标区域的半径。从(1)中可以看出θ越大代表LoS链路出现的概率越高。同时可以获得NLoS链路的概率为PNLoS=1-PLoS。
在信号传播过程当中,LoS和NLoS的路径损耗LLoS、LNLoS通过附加损耗ζLoS和ζNLoS进行区别
其中fc为信号载频,d为无人机到地面用户的直线距离,d2=h2+R2;c为光速。因此,无人机ATG信道的路径损耗模型可以表示为
L=PLoSLLoS+PNLoSLNLoS (4)
公式(4),路径损耗L是部署高度h和覆盖半径R(目标区域的半径)的函数,确定覆盖半径R后可以通过求极值的方式得到L的极小值,即在该h下L最小,此时h对应的就是最佳高度。
无人机在达到设定的覆盖半径时,部署高度h与路径损耗L关系之间存在一个最小值,即存在一个最佳部署高度hopt使得路径损耗最小为Lmin。在通信仰角较低时,NLoS链路占据较大概率从而带来了较大的附加损耗,而随着仰角的增加LoS链路逐渐成为主导,故而路径损耗开始降低,但是随着部署高度继续增加,NLoS链路出现的概率越来越小,其附加损耗的影响变得微乎其微,而此时无人机与地面用户通信距离的增加又导致了过多的自由空间传播损耗。所以,在满足R的覆盖半径下,存在一个最佳部署高度,使得无人机基站到小区边缘用户的路径损耗最小。在满足用户最低QoS需求下,设置噪声功率一定,用户的最小有用信号接收功率门限设为Pth,此时在满足小区边缘用户通信需求的条件下,无人机对该边缘用户的最小发射功率Pt=Lmin+Pth,而对小区内其他用户的最小发射功率均可低于此功率。由于无人机基站的最大发射功率有限,同时出于对节省能源的考虑,于是将无人机基站统一部署在此最佳高度,可以使得路径损耗最小从而延长工作时间。
步骤300:基于部署高度、目标区域范围内用户分布、无人机数量和更新时间段,构建多无人机基站动态部署的神经网络模型。所述神经网络模型包括Actor网络和Critic网络。
本发明在目标区域内部署了M架无人机作为空中基站,用(xi,yi,zi),i∈[1,2,…,M]表示第i架无人机的位置坐标,使其对一个区域范围内随机移动的N个地面用户进行搜索覆盖,(xj,yj,0),j∈[1,2,…,N]表示第j个地面用户的坐标。由于用户的移动速度通常远低于无人机飞行速度,故在该问题中我们考虑将T作为一个时间间隔,T划分为t个时隙,在每T的时间间隔后用户坐标进行一次采集更新。而无人机可以在t个时隙内,根据训练好的策略部署到新的位置,省去穷举搜索一类算法的大量计算开销与时间成本,提升部署的实时性和效率。在同一个时隙t时,每个地面用户最多只能关联一架无人机基站,当一个地面用户被多架无人机基站同时覆盖时出于能耗考虑,优先选择欧式距离最近的无人机基站进行关联,于是得到了多无人机基站动态部署的优化目标为:
xmin≤xi≤xmax (7)
ymin≤yi≤ymax (8)
上式(5)中Tij表示在T时段时,第i架无人机与第j个地面用户的关联情况,当用户处在无人机基站的额定覆盖范围内时,即认为可以形成关联,用户关联时Tij为1,反之则为0;(6)式表示在同一时隙中,每个用户最多只能与一架无人机基站形成关联;(7)、(8)是对无人机飞行范围的约束,在训练时如果飞离边界将会受到一个惩罚,并将其拉回至目标区域内。在(9)、(10)中表示无人机t时隙移动的距离,vmax为无人机的最大速度,即一个时隙内所能移动的最大距离,表示t时隙时第i架无人机的飞行方位角,在现实中为了更加节省能源和出于安全考虑,无人机需有最大加速度限制,表示为amax,同时为了让其飞行轨迹更加平滑防止姿态变化过大,我们给定了输出方位角约束Δθmax。
基于上述问题模型,对于多无人机多目标的动态覆盖场景,很适合作为MDP去寻求最优策略,因此构建神经网络模型,对多无人机空中位置进行实施部署。在(S,A,P,R,γ)的五元组表示中,S代表状态空间,A代表动作空间,P代表状态转移概率,R代表奖励函数,γ代表折扣因子。由于地面用户位置信息的动态性,利用传统的启发式算法在寻找最优部署位置时,通常是将动态拓扑以网络快照的形式转变为静态拓扑处理,需要耗费大量计算时间,不适合进行动态目标跟踪,而强化学习的策略映射可以直接从状态输出动作继而控制无人机根据新的用户分布进行移动。
通常来说,在当地的固定地面基站负荷过大情况之下,地面用户无法获得一个较好的QoS保证,但是可以通过北斗、GPS或有限的信道资源上传自身的位置坐标。因此,为了让无人机群了解到足够的信息去进行优化部署,采用联合状态信息为st:
其中代表在t时隙时所有无人机的水平坐标,由于所有无人机均部署在同一最优高度,因此无需包含高度信息,无人机群的联合位置信息依靠地面控制站或者通信卫星转发可以实现每个时隙实时更新。代表T时段所有地面用户的坐标信息,训练时每隔T时段采集更新一次。nt表示在当前时隙t下,无人机群关联用户的总数,通过此信息无人机可以获得当前覆盖是否达到一个合格的标准。在t时隙时无人机群的联合动作at为:
在执行时,每个时刻每架无人机将当前自己的状态输入训练好的MDP模型,按照输出的at决定自己下一时刻飞行的方位和距离并且实时更新自己的状态。
步骤400:基于DRL的训练方式对所述神经网络模型进行训练,得到训练后的Actor网络。本发明采用基于MDP马尔可夫决策模型设计的PPO算法,根据欲训练的无人机所处状态、可采取的动作来确定一个策略选择动作,而与环境交互的过程就是,状态、动作→新状态、新动作……,在此过程中,通过每次选择动作执行后达到的新状态确定奖励,然后调整策略。在该算法中定义有3个神经网络,1个Critic网络用来拟合状态价值函数V(st),2个分别带有新旧策略参数的Actor网络用来输出连续动作的概率分布,其参数记为θnew、θold,相较于基于信任区域的TRPO算法来说更简单且效果相近。
用网络参数为θ的策略πθ与环境交互得到一系列的经验记录,记为(st,at,rt,s′t),rt和s′t分别表示在t时刻st状态下执行at动作之后,环境反馈的奖励以及转移的新状态。这些经验在用来更新一次Actor网络之后便无法再直接使用,于是算法采用重要性权值来进行修正。例如现有的样本x服从q分布,想得到p分布下的期望E[f(x)],x~p,但此时p分布的样本没办法得到。通过现有样本的数据来求得期望,利用q分布来进行修正:
在PPO算法中存在一个缓存区D,用来存放在当前策略πθ下与环境交互形成的经验元组,此经验收集过程中策略πθ不会发生改变,当满足一定条件后依据最后得到的转移状态通过贝尔曼方程计算折扣奖励,并从D中取出数据用于训练。重要性权值用来修正旧策略πθ产生的样本数据,使得经验可以多次使用。
同时为了防止更新步幅过大,并且减小重要性权值修正之后带来的方差影响,相较于采用新旧策略之间KL散度约束法,采用直接利用clip函数的方法将ωt(θ)裁剪到一个适合的范围,降低计算复杂度的同时保证性能。因此,目标函数可以定义为(12)所示,并采用梯度上升的方式更新Actor。
(12)中表示t时刻采取at动作的优势函数估计,优势函数用来评价at动作相较于状态价值来说的优劣,Q(st,at)为状态动作值函数,表示在st状态执行at动作后未来奖励的期望,依据bellman方程进行计算,而ε是设定的一个较小的超参数,将ωt(θ)限制在一个范围防止产生较大的更新梯度。
具体训练过程如下:
1.首先初始化3个神经网络参数,清空经验缓存池D,设置训练的超参数(训练最大回合数、每个回合最大飞行时隙数、Actor网络学习率、Critic网络学习率、折扣因子、训练批次、重要性权值参数),在每个训练回合,按上述随机生成目标区域,目标区域内随机生成用户分布,根据初始起飞位置和用户位置信息联合编码得到初始联合状态信息S0。
2.S0归一化处理后作为Actor_new网络(参数记为θnew的Actor网络)的输入量,输出为动作的正态分布参数(均值、方差),即联合动作;
3.依据生成的均值和方差构建动作的概率分布(动作的每个维度均生成一个对应的正态分布),采样得到具体的动作(此处需对采样到的动作进行限制约束,满足前述的飞行约束条件)。
4.所有无人机均按照采样得到的动作移动一个时隙,状态此时转移到新的状态S1,得到在S1位置时的覆盖数,由设计的奖励函数计算得到的单步奖励,将(s0,a0,r0)这条经验轨迹记录保存在D的缓存池中。在DRL中,一个好的奖励函数就像一个好的指引路标,而对于多无人机覆盖运动目标的场景下,若完成任务才施以奖励的话会导致出现稀疏奖励,以至于很难学到有效经验。因此,在设计奖励函数时为了更好达到任务要求,本发明采用Reward Shaping的方式将奖励分为了4个部分:
rt=rs+rg+rz+rb (16)
其中为奖励基础项,是依据覆盖用户数目线性增长的奖励并将其归一化。是关于覆盖率β的函数;ξg、λg分别是奖励因子和梯度参数,ξg∈(0,1)将奖励大小进行缩放,该函数的指数形式为无人机提供了一个附加的奖励梯度,使其更倾向于获得高覆盖率条件下的高奖励,λg通常为大于1的正常数。rz=ξzΔnt是关于覆盖用户数变化量的一个势能函数,可以防止无人机在一个区域来回刷分。rb=κtξb作为一个惩罚项,由于我们希望无人机群在可能需要部署的目标区域内运动,所以当它们中任何一架飞越了设定边界时,训练时需要将其拉回至目标区域内并给定一个惩罚,κt为st状态时采取at动作后逾越边界的无人机坐标数,逾越边界的坐标数越多,则会得到一个越大惩罚,ξb为惩罚因子通常取负常数。
5.然后将S1替代S0重复上述2、3、4步骤与环境交互收集经验,存放经验到D缓存池中记为(st,at,rt)。
6.当与互动次数达到设定的训练批次或回合结束后,取出D中数据,用bellman方程计算累积奖励。
此时进入神经网络参数训练环节。先将θnew赋值给θold(两个Actor网络模型结构一致),然后用Critic网络计算D中状态价值(归一化状态作为输入,输出该状态的价值),用计算的每个状态的累积奖励减去每个状态的价值得到优势函数的值,更新Critic网络的方式就是梯度下降最小化累积奖励与Critic评估的状态价值之间的均方差。
在训练多无人机基站动态部署模型时,每个回合T∈[1,Tm]在上述区域随机生成用户分布,无人机获得初始状态S0并输入参数为θnew的Actor网络,依据输出的均值和标准差生成动作的概率分布,并采样得到具体的动作。在每执行一个具体动作后Critic网络都能从环境的反馈中得到奖励信息rt,然后将无人机状态转移到下一个状态st+1,并把(st,at,rt)以经验元组的形式存入D,在此过程中θnew并未发生改变。当与环境交互的步骤满足一定条件时,依据转移到的最后一个状态通过Critic网络计算其状态价值以bellman方程计算累积奖励并计算优势函数然后将(17)作为损失函数以梯度下降的方式用来更新Critic网络参数φ,其中V(st)是Critic网络对D中存储的状态评估的价值。
7.D中的所有状态St归一化输入Actor_new、Actor_old网络,得到动作概率分布,并依据此分布计算D中所有动作at的概率,继而得到重要性权值。
8.计算Actor网络的目标函数,从7中得到的重要性权值乘上优势函数的值,对比将重要性权值限制在(1-ε,1+ε)范围内乘上优势函数的值,取二者中小的值,以梯度上升的方式更新Actor网络(更新θnew),然后利用D中数据重复计算更新Actor、Critic网络数次。
9.清空D中数据开始下一个训练回合,重复上述步骤,直到回合结束。
10.模型训练收敛后,取出训练好的Actor_new网络模型,作为无人机集群的控制模型即训练后的Actor网络,此时只需要根据归一化输入的状态则可以输出对应的联合动作,采样得到具体的动作。在采用训练好的Actor网络进行部署时,无需生成分布采样动作,直接使用输出的正态分布均值作为其动作分量。
步骤500:基于更新时间段内初始时刻每个无人机的位置信息和每个用户的位置信息,采用训练后的Actor网络生成每个无人机在更新时间段内的运动决策。根据生成的运动决策经过采样可以得到无人机群的动作。
基于上述方法,本发明还提供一种基于DRL的多无人机空中基站动态部署系统,图2为本发明基于DRL的多无人机空中基站动态部署系统的结构示意图。如图2所示,本发明基于DRL的多无人机空中基站动态部署系统包括:
目标区域范围获取模块201,用于获取待部署的目标区域范围。
部署高度确定模块202,用于根据所述目标区域范围,采用ATG信道模型确定无人机的部署高度。
神经网络模型构建模块203,用于基于所述部署高度、所述目标区域范围内用户分布、无人机数量和更新时间段,构建多无人机基站动态部署的神经网络模型。所述神经网络模型包括Actor网络和Critic网络,所述Actor网络用于生成运动决策,所述Critic网络用于拟合价值函数。
训练模块204,用于基于DRL的训练方式对所述神经网络模型进行训练,得到训练后的Actor网络。
运动决策生成模块205,用于基于所述更新时间段内初始时刻每个无人机的位置信息和每个用户的位置信息,采用所述训练后的Actor网络生成每个无人机在所述更新时间段内的运动决策。
作为具体实施例,本发明基于DRL的多无人机空中基站动态部署系统中,所述部署高度确定模块202具体包括:
NLoS链路概率确定单元,用于利用公式PNLoS=1-PLoS确定无人机的NLoS链路概率;其中,PNLoS为无人机的NLoS链路概率。
无人机ATG信道模型确定单元,用于确定无人机ATG信道模型为:L=PLoSLLoS+PNLoSLNLoS;其中,L为无人机到地面用户传输信号的路径损耗。
部署高度确定单元,用于基于所述无人机ATG信道模型,根据使得无人机到地面用户传输信号的路径损耗最小的无人机到地面用户的直线距离,确定无人机的部署高度。
作为具体实施例,本发明基于DRL的多无人机空中基站动态部署系统中,所述述神经网络模型构建模块203具体包括:
其中,Tij表示在更新时间段T时,第i架无人机与第j个地面用户的关联情况,Tij=1表示第i架无人机与第j个地面用户之间相关联,Tij=0表示第i架无人机与第j个地面用户无关联;M为无人机的数量,N为地面用户的数量;xi为第i架无人机在飞行平面的横坐标,yi为第i架无人机在飞行平面的纵坐标,无人机的飞行平面为地面上方处于部署高度的水平面;[xmin,xmax]为无人机在飞行平面的横向边界,[ymin,ymax]为无人机在飞行平面的纵向边界;表示无人机在更新时间段内t时隙移动的距离,vmax为无人机的最大速度;amax为最大加速度;表示在更新时间段内t时隙时第i架无人机的飞行方位角,Δθmax为最大方位角变化量;所述更新时间段包括多个时隙。
神经网络模型构建单元,用于基于所述优化目标和约束条件,构建多无人机基站动态部署的神经网络模型;所述神经网络模型中Actor网络的输入为联合状态信息,输出为联合动作信息;所述联合状态信息为:所述联合动作信息为:其中,为在t时隙时所有无人机的水平坐标,所述水平坐标包括横坐标和纵坐标,i∈[1,2,…,M];为更新时间段T内地面用户的坐标信息j∈[1,2,…,N];nt为在当前时隙t下,无人机群关联用户的总数。
作为具体实施例,本发明基于DRL的多无人机空中基站动态部署系统中,所述训练模块204具体包括:
初始化单元,用于对于每一个训练回合,初始化联合状态信息;所述神经网络模型包括三个神经网络,分别为Actor_new网络、Actor_old网络和Critic网络;所述Actor_new网络和所述Actor_old网络结构相同,用于输出连续动作的概率分布;所述Critic网络用于拟合价值函数;每一个训练回合包括多次迭代,每次迭代包括多个阶段,每个阶段包括多个时隙;
Actor_new网络输出单元,用于对于当前训练回合第k次迭代的第m个阶段的第t个时隙,将联合状态信息作为所述Actor_new网络的输入量,输出联合动作;所述联合动作为正态分布参数;
动作采样单元,用于依据所述正态分布参数构建动作的概率分布,采样得到具体动作;
联合状态信息更新单元,用于所有无人机均按照采样得到的具体动作移动一个时隙,得到下一个时隙的联合状态信息;
单步奖励计算单元,用于根据奖励函数计算得到当前时隙t的单步奖励;
缓存池保存单元,用于将当前时隙的经验轨迹(st,at,rt)记录保存在缓存池中;其中,st为当前时隙的联合状态信息,at为当前时隙的联合动作,rt为当前时隙的单步奖励;
判断单元,用于判断缓存池是否达到预设的内存块大小;
时隙迭代单元,用于当缓存池未达到预设的内存块大小时,更新当前时隙,更新当前时隙的联合状态信息,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个时隙;
累积奖励计算单元,用于当缓存池达到预设的内存块大小时,基于所述缓存池中的经验轨迹,用bellman方程计算每个阶段的累积奖励;
Actor_old网络参数更新单元,用于将Actor_new网络中的参数赋值给Actor_old网络中的参数;
状态价值计算单元,用于基于Critic网络计算所述缓存池中每个时隙的状态价值;
Critic网络参数更新单元,用于根据每个时隙的状态价值和累积奖励,以梯度下降法更新Critic网络中的参数;
动作概率分布确定单元,用于将所述缓冲池中所有的联合状态信息输入Actor_new网络和Actor_old网络,得到动作概率分布;
重要性权值计算单元,用于根据所述动作概率分布计算所述缓冲池中每个时隙的联合动作的概率,得到每个时隙的重要性权值;
Actor_new网络参数更新单元,用于根据每个时隙的重要性权值和优势函数,采用梯度上升法更新Actor_new网络的参数;
阶段判断单元,用于判断当前阶段是否达到最大阶段;
阶段更新单元,用于若当前阶段未达到最大阶段,清空所述缓存池中的数据,更新当前阶段,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个阶段;
训练回合更新单元,用于若当前阶段达到最大阶段,返回“初始化联合状态信息”步骤,进入下一个训练回合;
收敛判断单元,用于当达到最大训练回合次数时,判断所有回合的累积奖励是否满足收敛;每个回合的累积奖励为该回合中所有时隙的累积奖励之和;
迭代停止单元,用于当训练回合的累积奖励满足收敛时,得到训练好的Actor_new网络模型;
训练后的Actor网络确定单元,用于将训练好的Actor_new网络模型确定为训练后的Actor网络;所述训练后的Actor网络使用输出的正态分布均值作为动作分量;
重新训练单元,用于当训练回合的累积奖励不满足收敛时,调整DRL训练方式的超参数或者神经网络模型的结构,重新进行训练,直到累积奖励收敛,得到训练好的Actor_new网络模型。
作为具体实施例,本发明基于DRL的多无人机空中基站动态部署系统中,所述奖励函数为:
rt=rs+rg+rz+rb;
其中,为奖励基础项,N为地面用户的数量,nt为在当前时隙t下无人机群关联用户的总数;为关于覆盖率β的函数,ξg、λg分别是奖励因子和梯度参数,ξg∈(0,1),λg为大于1的正常数;rz=ξzΔnt是关于覆盖用户数变化量的势能函数,ξz为比例系数,Δnt为当前时隙状态下覆盖数和前一时隙下状态下覆盖数的变化量;rb=κtξb为惩罚项,κt为时隙t时采取输出的联合动作动作后逾越边界的无人机数,ξb为惩罚因子。
下面提供一个仿真实例,进一步说明本发明的方案。
本仿真实例的目标区域为在城市环境下10km×10km的目标区域,在该区域内部署了3架无人机基站对30个地面用户进行跟踪覆盖。同时本仿真实例与粒子群优化部署法和基于最大面积原则的静态部署法进行了200个回合的测试对比,验证所提算法的有效性和优越性。
无人机基站的额定覆盖半径R设为1km,在此覆盖半径下的最佳部署高度h约为600m,通信条件欠佳区域为{[2km,7km],[2km,7km]}的正方形,地面用户在此范围随机分布。为防止用户过于分散无法验证出实验效果,我们在每个训练回合让所有用户坐标在一个3km×3km的小正方形区域内随机生成,该小正方形区域在上述通信条件欠佳的大正方形区域内随机出现,3架无人机从(1km,1km)的地点升空,达到要求高度后根据已知信息进行自主部署。最大飞行速度vmax设为50m/s,最大加速度amax设为15m/s2。
图3显示了在训练的2000个回合中,每个回合累积奖励变化情况,可以看到算法在大约1000个回合时开始收敛。前300个回合无人机一直在尝试和探索,随机性较多,在此阶段会时常违反约束而得到惩罚。在后续的约700个回合中,无人机处于探索最优策略的过程但累积奖励还在不断上升,在此阶段无人机还会偶有违反约束的情况发生,但也能偶尔寻找到最佳的覆盖位置。在最后的约500个回合中,无人机已经能够根据在服务区域内每个回合随机生成的用户坐标进行位置部署,在达到最大覆盖时悬停用户上空直到下一次用户坐标的更新。图4是在测试的某个回合中,无人机从出发点到最佳位置的覆盖情况,我们可以发现,由于初始出发点距离用户生成区域较远,前约110个时隙无人机快速飞向用户区域,到达目标区域之后3架无人机分散进行用户覆盖并且最终实现了全体覆盖。
接下来,利用本发明所提算法与传统粒子群优化部署法、最大面积原则的静态部署法进行了200个回合的覆盖率测试对比。在使用粒子群算法时,每个回合都采用了100个粒子迭代500次找到当前回合下的最优部署位置,在最大面积原则的静态部署法仿真当中,在{[2km,7km],[2km,7km]}的区域中心静止部署了3架无人机,使其在地面的覆盖区域为两两相切且半径为1km的圆,最大程度增加其覆盖范围。
从图5、6中可以看到,基于粒子群优化算法的部署方式能够达到平均92.4%的覆盖率,其主要原因是在上述仿真环境中,地面用户的基数比较少,故而对覆盖率的大小影响较大,同时由于在3km×3km的正方形区域内随机生成用户,用户依旧较为分散,会存在3架无人机基站无法同时全部覆盖的情景,这也导致了覆盖率整体水平不高,但粒子群优化算法不失为一种优秀的基线作为对照。在基于最大面积的静态部署方法中,由于覆盖能力有限,只能达到平均66.3%的覆盖率。而采用了DRL的多无人机基站动态部署方法中,达到了平均94.5%的覆盖率,已经十分接近粒子群算法的寻优能力。但由于现实中更多是动态环境,多次重复使用粒子群等启发式算法去寻优会耗费巨大的计算开销,同时也不利于实时性的动态部署,因此DRL的方式显得十分有效。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (6)
1.一种基于DRL的多无人机空中基站动态部署方法,其特征在于,包括:
获取待部署的目标区域范围;
根据所述目标区域范围,采用ATG信道模型确定无人机的部署高度;
基于所述部署高度、所述目标区域范围内用户分布、无人机数量和更新时间段,构建多无人机基站动态部署的神经网络模型;所述神经网络模型包括Actor网络和Critic网络,所述Actor网络用于生成运动决策,所述Critic网络用于拟合价值函数;
基于DRL的训练方式对所述神经网络模型进行训练,得到训练后的Actor网络;
基于所述更新时间段内初始时刻每个无人机的位置信息和每个用户的位置信息,采用所述训练后的Actor网络生成每个无人机在所述更新时间段内的运动决策;
所述根据所述目标区域范围,采用ATG信道模型确定无人机的部署高度,具体包括:
利用公式PNLoS=1-PLoS确定无人机的NLoS链路概率;其中,PNLoS为无人机的NLoS链路概率;
确定无人机ATG信道模型为:L=PLoSLLoS+PNLoSLNLoS;其中,L为无人机到地面用户传输信号的路径损耗;
基于所述无人机ATG信道模型,根据在所述目标区域范围下,使得无人机到地面用户传输信号的路径损耗最小的无人机到地面用户的直线距离,确定无人机的部署高度;
所述基于所述部署高度、所述目标区域范围内用户分布、无人机数量和更新时间段,构建多无人机基站动态部署的神经网络模型,具体包括:
其中,Tij表示在更新时间段T时,第i架无人机与第j个地面用户的关联情况,Tij=1表示第i架无人机与第j个地面用户之间相关联,Tij=0表示第i架无人机与第j个地面用户无关联;M为无人机的数量,N为地面用户的数量;xi为第i架无人机在飞行平面的横坐标,yi为第i架无人机在飞行平面的纵坐标,无人机的飞行平面为地面上方处于部署高度的水平面;[xmin,xmax]为无人机在飞行平面的横向边界,[ymin,ymax]为无人机在飞行平面的纵向边界;lit表示无人机在更新时间段内t时隙移动的距离,vmax为无人机的最大速度;amax为最大加速度;表示在更新时间段内t时隙时第i架无人机的飞行方位角,Δθmax为最大方位角变化量;所述更新时间段包括多个时隙;
2.根据权利要求1所述的基于DRL的多无人机空中基站动态部署方法,其特征在于,所述基于DRL的训练方式对所述神经网络模型进行训练,得到训练后的Actor网络,具体包括:
对于每一个训练回合,初始化联合状态信息;所述神经网络模型包括三个神经网络,分别为Actor_new网络、Actor_old网络和Critic网络;所述Actor_new网络和所述Actor_old网络结构相同,用于输出连续动作的概率分布;所述Critic网络用于拟合价值函数;每一个训练回合包括多次迭代,每次迭代包括多个阶段,每个阶段包括多个时隙;
对于当前训练回合第k次迭代的第m个阶段的第t个时隙,将联合状态信息作为所述Actor_new网络的输入量,输出联合动作;所述联合动作为正态分布参数;
依据所述正态分布参数构建动作的概率分布,采样得到具体动作;
所有无人机均按照采样得到的具体动作移动一个时隙,得到下一个时隙的联合状态信息;
根据奖励函数计算得到当前时隙t的单步奖励;
将当前时隙的经验轨迹(st,at,rt)记录保存在缓冲池中;其中,st为当前时隙的联合状态信息,at为当前时隙的联合动作,rt为当前时隙的单步奖励;
判断缓冲池是否达到预设的内存块大小;
当缓冲池未达到预设的内存块大小时,更新当前时隙,更新当前时隙的联合状态信息,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个时隙;
当缓冲池达到预设的内存块大小时,基于所述缓冲池中的经验轨迹,用bellman方程计算每个阶段的累积奖励;
将Actor_new网络中的参数赋值给Actor_old网络中的参数;
基于Critic网络计算所述缓冲池中每个时隙的状态价值;
根据每个时隙的状态价值和累积奖励,以梯度下降法更新Critic网络中的参数;
将所述缓冲池中所有的联合状态信息输入Actor_new网络和Actor_old网络,得到动作概率分布;
根据所述动作概率分布计算所述缓冲池中每个时隙的联合动作的概率,得到每个时隙的重要性权值;
根据每个时隙的重要性权值和优势函数,采用梯度上升法更新Actor_new网络的参数;
判断当前阶段是否达到最大阶段;
若当前阶段未达到最大阶段,清空所述缓冲池中的数据,更新当前阶段,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个阶段;
若当前阶段达到最大阶段,返回“初始化联合状态信息”步骤,进入下一个训练回合;
当达到最大训练回合次数时,判断所有回合的累积奖励是否满足收敛;每个回合的累积奖励为该回合中所有时隙的累积奖励之和;
当训练回合的累积奖励满足收敛时,得到训练好的Actor_new网络模型;
将训练好的Actor_new网络模型确定为训练后的Actor网络;所述训练后的Actor网络使用输出的正态分布均值作为动作分量;
当训练回合的累积奖励不满足收敛时,调整DRL训练方式的超参数或者神经网络模型的结构,重新进行训练,直到累积奖励收敛,得到训练好的Actor_new网络模型。
4.一种基于DRL的多无人机空中基站动态部署系统,其特征在于,包括:
目标区域范围获取模块,用于获取待部署的目标区域范围;
部署高度确定模块,用于根据所述目标区域范围,采用ATG信道模型确定无人机的部署高度;
神经网络模型构建模块,用于基于所述部署高度、所述目标区域范围内用户分布、无人机数量和更新时间段,构建多无人机基站动态部署的神经网络模型;所述神经网络模型包括Actor网络和Critic网络,所述Actor网络用于生成运动决策,所述Critic网络用于拟合价值函数;
训练模块,用于基于DRL的训练方式对所述神经网络模型进行训练,得到训练后的Actor网络;
运动决策生成模块,用于基于所述更新时间段内初始时刻每个无人机的位置信息和每个用户的位置信息,采用所述训练后的Actor网络生成每个无人机在所述更新时间段内的运动决策;所述部署高度确定模块具体包括:
NLoS链路概率确定单元,用于利用公式PNLoS=1-PLoS确定无人机的NLoS链路概率;其中,PNLoS为无人机的NLoS链路概率;
无人机ATG信道模型确定单元,用于确定无人机ATG信道模型为:L=PLoSLLoS+PNLoSLNLoS;其中,L为无人机到地面用户传输信号的路径损耗;
部署高度确定单元,用于基于所述无人机ATG信道模型,根据使得无人机到地面用户传输信号的路径损耗最小的无人机到地面用户的直线距离,确定无人机的部署高度;
所述神经网络模型构建模块具体包括:
其中,Tij表示在更新时间段T时,第i架无人机与第j个地面用户的关联情况,Tij=1表示第i架无人机与第j个地面用户之间相关联,Tij=0表示第i架无人机与第j个地面用户无关联;M为无人机的数量,N为地面用户的数量;xi为第i架无人机在飞行平面的横坐标,yi为第i架无人机在飞行平面的纵坐标,无人机的飞行平面为地面上方处于部署高度的水平面;[xmin,xmax]为无人机在飞行平面的横向边界,[ymin,ymax]为无人机在飞行平面的纵向边界;表示无人机在更新时间段内t时隙移动的距离,vmax为无人机的最大速度;amax为最大加速度;表示在更新时间段内t时隙时第i架无人机的飞行方位角,Δθmax为最大方位角变化量;所述更新时间段包括多个时隙;
5.根据权利要求4所述的基于DRL的多无人机空中基站动态部署系统,其特征在于,所述训练模块具体包括:
初始化单元,用于对于每一个训练回合,初始化联合状态信息;所述神经网络模型包括三个神经网络,分别为Actor_new网络、Actor_old网络和Critic网络;所述Actor_new网络和所述Actor_old网络结构相同,用于输出连续动作的概率分布;所述Critic网络用于拟合价值函数;每一个训练回合包括多次迭代,每次迭代包括多个阶段,每个阶段包括多个时隙;
Actor_new网络输出单元,用于对于当前训练回合第k次迭代的第m个阶段的第t个时隙,将联合状态信息作为所述Actor_new网络的输入量,输出联合动作;所述联合动作为正态分布参数;
动作采样单元,用于依据所述正态分布参数构建动作的概率分布,采样得到具体动作;
联合状态信息更新单元,用于所有无人机均按照采样得到的具体动作移动一个时隙,得到下一个时隙的联合状态信息;
单步奖励计算单元,用于根据奖励函数计算得到当前时隙t的单步奖励;
缓冲池保存单元,用于将当前时隙的经验轨迹(st,at,rt)记录保存在缓冲池中;其中,st为当前时隙的联合状态信息,at为当前时隙的联合动作,rt为当前时隙的单步奖励;
判断单元,用于判断缓冲池是否达到预设的内存块大小;
时隙迭代单元,用于当缓冲池未达到预设的内存块大小时,更新当前时隙,更新当前时隙的联合状态信息,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个时隙;
累积奖励计算单元,用于当缓冲池达到预设的内存块大小时,基于所述缓冲池中的经验轨迹,用bellman方程计算每个阶段的累积奖励;
Actor_old网络参数更新单元,用于将Actor_new网络中的参数赋值给Actor_old网络中的参数;
状态价值计算单元,用于基于Critic网络计算所述缓冲池中每个时隙的状态价值;
Critic网络参数更新单元,用于根据每个时隙的状态价值和累积奖励,以梯度下降法更新Critic网络中的参数;
动作概率分布确定单元,用于将所述缓冲池中所有的联合状态信息输入Actor_new网络和Actor_old网络,得到动作概率分布;
重要性权值计算单元,用于根据所述动作概率分布计算所述缓冲池中每个时隙的联合动作的概率,得到每个时隙的重要性权值;
Actor_new网络参数更新单元,用于根据每个时隙的重要性权值和优势函数,采用梯度上升法更新Actor_new网络的参数;
阶段判断单元,用于判断当前阶段是否达到最大阶段;
阶段更新单元,用于若当前阶段未达到最大阶段,清空所述缓冲池中的数据,更新当前阶段,返回“将联合状态信息作为所述Actor_new网络的输入量,输出联合动作”步骤,进入下一个阶段;
训练回合更新单元,用于若当前阶段达到最大阶段,返回“初始化联合状态信息”步骤,进入下一个训练回合;
收敛判断单元,用于当达到最大训练回合次数时,判断所有回合的累积奖励是否满足收敛;每个回合的累积奖励为该回合中所有时隙的累积奖励之和;
迭代停止单元,用于当训练回合的累积奖励满足收敛时,得到训练好的Actor_new网络模型;
训练后的Actor网络确定单元,用于将训练好的Actor_new网络模型确定为训练后的Actor网络;所述训练后的Actor网络使用输出的正态分布均值作为动作分量;
重新训练单元,用于当训练回合的累积奖励不满足收敛时,调整DRL训练方式的超参数或者神经网络模型的结构,重新进行训练,直到累积奖励收敛,得到训练好的Actor_new网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011406139.8A CN112511250B (zh) | 2020-12-03 | 2020-12-03 | 一种基于drl的多无人机空中基站动态部署方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011406139.8A CN112511250B (zh) | 2020-12-03 | 2020-12-03 | 一种基于drl的多无人机空中基站动态部署方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112511250A CN112511250A (zh) | 2021-03-16 |
CN112511250B true CN112511250B (zh) | 2022-06-03 |
Family
ID=74969984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011406139.8A Active CN112511250B (zh) | 2020-12-03 | 2020-12-03 | 一种基于drl的多无人机空中基站动态部署方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112511250B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113115253B (zh) * | 2021-03-19 | 2022-08-23 | 西北大学 | 动态阻挡下毫米波无人机高度和密度部署估计方法及系统 |
CN113190344B (zh) * | 2021-03-26 | 2023-12-15 | 中国科学院软件研究所 | 一种面向软件定义卫星的神经网络动态重构部署的方法以及装置 |
CN113190039B (zh) * | 2021-04-27 | 2024-04-16 | 大连理工大学 | 一种基于分层深度强化学习的无人机采集路径规划方法 |
CN113993101B (zh) * | 2021-10-21 | 2024-10-01 | 北京邮电大学 | 一种用户为中心无人机辅助网络的分布式Cache部署方法 |
CN113977583B (zh) * | 2021-11-16 | 2023-05-09 | 山东大学 | 基于近端策略优化算法的机器人快速装配方法及系统 |
CN114168971B (zh) * | 2021-12-09 | 2024-09-27 | 华中科技大学 | 一种基于强化学习的物联网覆盖漏洞修复方法 |
CN114339842B (zh) * | 2022-01-06 | 2022-12-20 | 北京邮电大学 | 基于深度强化学习无人机集群在时变场景下动态轨迹设计方法和装置 |
CN114727323A (zh) * | 2022-03-11 | 2022-07-08 | 浙江以正通信技术有限公司 | 无人机基站控制方法及装置、模型训练方法及装置 |
CN115052285A (zh) * | 2022-05-04 | 2022-09-13 | 中国人民解放军空军工程大学 | 基于深度强化学习的无人机智能反射面安全传输方法 |
CN115278698B (zh) * | 2022-06-13 | 2024-02-02 | 北京邮电大学 | 基于动态用户分布预测的无人机基站动态部署方法及装置 |
CN115119174A (zh) * | 2022-06-30 | 2022-09-27 | 西安理工大学 | 灌区场景中基于能耗优化的无人机自主部署方法 |
CN115494844B (zh) * | 2022-09-26 | 2024-06-28 | 成都朴为科技有限公司 | 一种多机器人搜索方法及系统 |
CN117376934B (zh) * | 2023-12-08 | 2024-02-27 | 山东科技大学 | 一种基于深度强化学习的多无人机海上移动基站部署方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10375585B2 (en) * | 2017-07-06 | 2019-08-06 | Futurwei Technologies, Inc. | System and method for deep learning and wireless network optimization using deep learning |
CN110531617B (zh) * | 2019-07-30 | 2021-01-08 | 北京邮电大学 | 多无人机3d悬停位置联合优化方法、装置和无人机基站 |
CN110809274B (zh) * | 2019-10-28 | 2023-04-21 | 南京邮电大学 | 一种面向窄带物联网的无人机基站增强网络优化方法 |
CN111260031B (zh) * | 2020-01-14 | 2022-03-01 | 西北工业大学 | 一种基于深度强化学习的无人机集群目标防卫方法 |
CN111786713B (zh) * | 2020-06-04 | 2021-06-08 | 大连理工大学 | 一种基于多智能体深度强化学习的无人机网络悬停位置优化方法 |
-
2020
- 2020-12-03 CN CN202011406139.8A patent/CN112511250B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112511250A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112511250B (zh) | 一种基于drl的多无人机空中基站动态部署方法及系统 | |
Bayerlein et al. | Trajectory optimization for autonomous flying base station via reinforcement learning | |
CN110470301B (zh) | 多动态任务目标点下的无人机路径规划方法 | |
CN112929866B (zh) | 一种自适应优化城市灾区网络覆盖的无人机部署方法 | |
CN112902969B (zh) | 一种无人机在数据收集过程中的路径规划方法 | |
Ma et al. | Improved ant colony algorithm for global optimal trajectory planning of UAV under complex environment. | |
CN114422056A (zh) | 基于智能反射面的空地非正交多址接入上行传输方法 | |
CN109857143A (zh) | 一种吞吐量最大化的无人机轨迹规划方法 | |
CN114142908B (zh) | 一种面向覆盖侦察任务的多无人机通信资源分配方法 | |
CN113377131B (zh) | 一种使用强化学习获得无人机收集数据轨迹的方法 | |
CN113206701A (zh) | 一种无人机飞行基站的三维部署和功率分配联合优化方法 | |
Cui et al. | Joint trajectory and power optimization for energy efficient UAV communication using deep reinforcement learning | |
CN114025361A (zh) | 面向协同中继任务的多无人机网络拓扑构造与规划方法 | |
Zhang et al. | Multi-objective optimization for UAV-enabled wireless powered IoT networks: an LSTM-based deep reinforcement learning approach | |
Wang et al. | Robotic wireless energy transfer in dynamic environments: system design and experimental validation | |
CN117724524A (zh) | 一种基于改进球面向量粒子群算法的无人机航线规划方法 | |
CN116795138A (zh) | 一种面向数据采集的多无人机智能航迹规划方法 | |
CN116321237A (zh) | 一种基于深度强化学习的无人机辅助车联网数据收集方法 | |
CN114879726A (zh) | 一种基于多无人机辅助数据收集的路径规划方法 | |
CN114169234B (zh) | 一种无人机辅助移动边缘计算的调度优化方法及系统 | |
CN117498920B (zh) | 一种面向空天协同通信的多层联合组网抗干扰方法及系统 | |
CN117055621B (zh) | 面向数据采集的多无人机路径规划方法 | |
Li et al. | Research on path planning of continuous control UAV based on improved PSO algorithm | |
CN117676711A (zh) | 终端直连卫星算力网络任务调度与路由优化方法 | |
CN118764879A (zh) | 一种ris辅助的多无人机高能效公平通信覆盖方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |