CN115766089A - 一种能量采集认知物联网络抗干扰最优传输方法 - Google Patents

一种能量采集认知物联网络抗干扰最优传输方法 Download PDF

Info

Publication number
CN115766089A
CN115766089A CN202211271268.XA CN202211271268A CN115766089A CN 115766089 A CN115766089 A CN 115766089A CN 202211271268 A CN202211271268 A CN 202211271268A CN 115766089 A CN115766089 A CN 115766089A
Authority
CN
China
Prior art keywords
network
node
ciot
cognitive
online
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211271268.XA
Other languages
English (en)
Other versions
CN115766089B (zh
Inventor
王俊
徐浩东
鲍家旺
林瑞全
王锐亮
丘航丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202211271268.XA priority Critical patent/CN115766089B/zh
Publication of CN115766089A publication Critical patent/CN115766089A/zh
Application granted granted Critical
Publication of CN115766089B publication Critical patent/CN115766089B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Mobile Radio Communication Systems (AREA)

Abstract

本发明涉及一种能量采集认知物联网络抗干扰最优传输方法。通过将认知无线电技术、能量采集技术、抗干扰技术在通信领域相结合,将认知物联网络建模为一个主基站、多个主用户、多个物联网节点、一个物联网认知基站和多个恶意攻击节点所构成的完整系统。通过深度强化学习方法对认知物联网络各个节点在发送、接收信号被恶意攻击的情况下,认知基站无需先验知识,无模型的学习恶意节点信道攻击策略,合理制定对抗策略并调节各个节点的信道接入、模式选择和功率分配以达到系统吞吐量最大化目的。本发明适用于无线通信领域。

Description

一种能量采集认知物联网络抗干扰最优传输方法
技术领域
本发明属于无线通信领域,具体涉及一种能量采集认知物联网络抗干扰最优传输方法。
背景技术
随着信息技术和机器对机器(M2M)通信的最新进步,前所未有的物理对象正在连接到互联网。这导致了一种智能连接网络中分散对象和物联网(物联网)的实现。交通、医疗保健、工业自动化和灾难响应只是物联网如何显著改善我们的生活的几个例子。然而,越来越多的物联网对象可能会产生大量的数据,因为它们交换信息以保持连接和访问服务,这增加了对频谱资源的需求。如果采用静态频谱分配策略,可能会出现频谱稀缺的问题。认知无线电网络(CRNs)是解决这一问题的宝贵工具。根据周围的射频(RF)环境,CRN通过学习、推理和决定有效地利用无线电频谱进行可靠和不间断的无线通信来适应外部条件。随着CRN和物联网的不断发展,一种名为认知物联网(CIoT)的强大范式被提出,物联网对象将具有认知能力,通过理解社会和物理世界中的决策来学习、思考和行动。因此,基于CR的物联网可能成为未来的必要要求。
大多数物联网设备主要通过无线通信技术进行互联,由电池供电,并位于分散的位置。电池容量有限所造成的能源问题是制约物联网发展的一个主要问题。能源收获(EH)可以从各种绿色能源中获取能源,如光、热、风和射频源,延长了能源限制网络的使用寿命。因此,这是下一代网络的关键技术。近年来,随着物联网的发展,从环境射频信号中获取能量引起了人们的广泛关注,因为它使低功率通信网络成为能源可持续的。将认知无线电技术与射频能量采集技术和物联网相结合,可以解决物联网设备爆炸性增长造成的频谱短缺和电池容量限制造成的能源短缺问题。
为了实现CIoT网络的目标,保护网络免受各种恶意攻击是物联网系统发展的研究热点。CR网络由于其独特的特点,比其他无线电网络更容易受到安全威胁。CR网络攻击包括主用户仿真(PUE)、目标函数攻击、学习攻击、频谱感知数据证伪、窃听和干扰。其中,干扰攻击被认为是最频繁和最具有威胁性的攻击,因为它们会导致连续传输的吞吐量下降、网络瘫痪或通信中断。物联网网络由于其异质性,也容易受到各种干扰攻击。
发明内容
本发明的目的在于克服现有技术缺陷,提供一种能量采集认知物联网络抗干扰最优传输方法。
为实现上述目的,本发明的技术方案是:一种能量采集认知物联网络抗干扰最优传输方法,通过将认知无线电技术、能量采集技术、抗干扰技术在通信领域相结合,对认知通信网络各个节点在发送、接收信号被恶意攻击的情况下,认知基站无需先验知识,无模型的学习恶意节点信道攻击策略,制定对抗策略并调节各个节点的信道接入、模式选择和功率分配以达到系统吞吐量最大化目的;该方法具体步骤如下:
步骤1、搭建强化学习环境,考虑一个以认知基站CBS为圆心半径为1km的范围,N个CIoT节点位于圆内且服从泊松分布,CIoT节点拥有相同的初始功率P(t0)={P1(t0)=P0,...,PN(t0)=P0}和电池水平B(t0)={B1(t0)=B0,...,BN(t0)=B0},空闲信道数量为L;在此范围内考虑一个恶意攻击节点,它也服从泊松分布,也有初始功率Pj(t0)=Pj0;CBS为agent使用强化学习算法与环境进行交互;
步骤2、构建基于深度强化学习的认知通信网络抗干扰资源分配算法,首先生成认知通信网络的拓扑结构,初始化训练轮次数episode,每轮训练次数steps,actor的学习率lr_A,critic的学习率lr_C,奖励折扣率γ,经验回放池D的最大容量C,训练批次大小batch_size以及神经网络权重参数:策略网络actor的online权重θμ和actor的target权重θμ′,Q网络critic的online权重θQ和actor的target权重θQ′
步骤3、在每个episode的开始,更新认知通信网络环境中所有CIoT节点和攻击节点的位置和并重新计算所有链路的信道增益,包括CIoT节点与CBS的信道增益
Figure BDA0003895022360000021
和恶意攻击节点与CIoT节点的信道增益
Figure BDA0003895022360000022
更新频谱感知得到的信道状态I(t)={I1(t),...,IL(t)},信道状态为繁忙或空闲;更新后的CIoT节点电池状态B(t)={B1(t),...,BN(t)};得到状态空间
Figure BDA0003895022360000023
作为每个episode的开始的初始状态;
步骤4、在每个episode的第t个step,CBS将
Figure BDA0003895022360000024
带入DDPG算法得到动作
Figure BDA0003895022360000025
将动作与环境交互,在τ时间内CIoT节点根据
Figure BDA0003895022360000026
更新每个节点的工作模式Mi(t),选择频谱接入或能量采集,之后在(1-τ)的时间内通过能量采集公式更新每个CIoT节点获取的能量Ei(t),或者在(1-τ)的时间内按照功率Pi(t)接入空闲信道进行数据传输;在(1-τ)时间结束后更新每个CIoT节点电池状态Bi(t+1);CBS在每个t时隙最后根据下式计算CIoT节点总的吞吐量即强化学习的奖励r:
Figure BDA0003895022360000031
其中T为每个时隙的时长,W为带宽,SINRi(t)为第i个CIoT节点的信噪比;在得到奖励r后,对于长期的系统性能,即累积吞吐量,不仅应该考虑当前时间段t上的瞬时奖励r,还应该考虑未来的奖励;因此,从第t个时间段开始的折现未来累积吞吐量表示如下:
Figure BDA0003895022360000032
其中,折扣率0<γ<1;
将累计吞吐量最大化,表述为:
Figure BDA0003895022360000033
s.t. INP(t)≤IL(t)
Figure BDA0003895022360000034
Figure BDA0003895022360000035
其中,
Figure BDA0003895022360000036
表示期望的给定值,G(t)表示从第t个时隙开始的折现未来累积吞吐量,INP(t)表示第t个时间段上功率分配策略集合中大于零的元素数,IL(t)表示第t个时间段处的空闲通道数,T为每个时隙的周期,τ为每个时隙中控制阶段的持续时间,Pi(t)表示第t个时隙处CIoT节点i的发射功率,es表示为信号交换所需的能量,gib(t)表示CIoT节点i与CBS之间的信道增益,n表示高斯白噪声n~N(0,ω2),SINRthreshold表示信干噪比阈值;
步骤5、CBS将动作
Figure BDA0003895022360000037
每带入环境后,环境会返回相应的奖励r和下一状态
Figure BDA0003895022360000038
CBS将这个状态转换过程
Figure BDA0003895022360000039
存入经验回放池R,作为训练online网络的数据集;之后从经验回放池R中,随机采样batch_size个已存放数据作为online策略网络、online Q网络的一个mini-batch训练数据;用(si,ai,ri,si+1)表示batch_size中的单个transition数据;接下来进行DDPG算法神经网络的更新:
1)计算online Q网络的gradient:
Q网络的loss定义:使用类似于监督式学习的方法,定义loss为均方误差MSE:
Figure BDA0003895022360000041
其中yi其中为状态值函数:
yi=ri+γQ′(si+1,μ′(si+1μ′)|θQ′)
基于标准的反向传播方法,求得L针对θQ的gradient:
Figure BDA0003895022360000042
2)更新online Q网络:采用Adam optimizer;
3)计算online策略网络的policy gradient:
采用off-policy的训练方法,policy gradient公式如下:
Figure BDA0003895022360000043
policy gradient是在s根据pβ分布时
Figure BDA0003895022360000044
的期望值,用Monte-carlo方法来估算这个期望值,在经验回放池中存储的(si,ai,ri,si+1)是基于CBS的行为策略β产生的,它们的分布函数(pdf)为pβ,所以当从经验回放池中随机采样获得batch_size数据时,根据Monte-carlo方法,将数据代入上述policy gradient公式,作为对上述期望值的一个无偏估计,policy gradient改写为:
Figure BDA0003895022360000045
4)更新online策略网络:采用Adam optimizer;
5)软更新target策略网络和target Q网络,通过让target网络的权重缓慢地跟踪学习到的online网络来进行更新:
Figure BDA0003895022360000046
其中,ξ∈(0,1]表示基于DDPG的算法中target网络的更新速率。
相较于现有技术,本发明具有以下有益效果:首先将多个次级用户在干扰者攻击下的最优传输问题表述为一个没有任何先验知识的马尔可夫决策过程(MDP),然后提出了一种基于深度强化学习(DRL)的深度确定性策略梯度(DDPG)算法来进行干扰策略学习、动态频谱接入、工作模式选择和连续功率分配,使长期上行吞吐量最大化。通过在随机和扫描干扰攻击环境下的仿真,证明了所提出的算法可以有效地减少来自恶意干扰者的不利影响,即使他们使用不同的攻击策略。仿真结果表明提出的算法与DQN算法、贪婪和随机算法相比都具有更好的性能。
附图说明
图1为本发明实施例中认知物联网络的系统模型;
图2为本发明实施例中系统的时隙模型;
图3为本发明实施例中强化学习框架;
图4为本发明实施例中DDPG算法框架;
图5为本发明实施例中不同算法在无恶意攻击情况下的系统性能;
图6为本发明实施例中不同算法在随机攻击策略下的系统性能;
图7为本发明实施例中不同算法在扫描攻击策略下的系统性能。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
考虑一种具有射频能量采集能力的多用户认知物联网模型,它由三部分组成。第一部分是由M个主用户(PU)和一个基站(BS)组成的主用户网络(PUN)。第二部分是由一个认知基站(CBS)和N个CIoT节点组成的认知物联网络(CIoTN)。第三部分由一个恶意攻击节点(MAN)组成。系统模型如图1所示,具体方案如下:
在该系统中,PUN覆盖K个正交通道,CIoTN位于PUN的覆盖区域内。所有设备都在同步时隙模式下工作,PU在每个时隙中使用授权的频谱信道与BS进行通信。在CIoTN中,CBS在整个认知物联网络中起核心作用,CBS定期感知许可频谱的状态,为CIoT节点的上行传输寻找空闲信道并进行信道分配,在恶意攻击环境下,CBS还需要对攻击进行甄别并采取反制措施。CBS决定进行频谱感知,那么在感知阶段,它通过使用能量检测方法来感知信道状态。感知结果记为θ:θ=0和θ=1分别表示CBS感知信道为繁忙和空闲。信道的实际状态为C:C=0和C=1分别表示实际信道状态为繁忙和空闲。频谱感知具有误警概率pFA=Pr{θ=0∣C=1}和漏检概率pM=Pr{θ=1∣C=0},此外,还有正确检测到PU活动的概率pD=1-pM和频谱访问机会的概率pO=1-pFA
我们考虑系统共有L个信道,根据感知结果我们得到了L个信道的信道状态向量I(t)={I1(t),...,Ii(t),...,IL(t)},Ii(t)∈{0,1},i∈1,..,L,并更新信道信任值
Figure BDA0003895022360000051
感知结果为θ=1的概率为:
Figure BDA0003895022360000061
信道信任值更新为:
Figure BDA0003895022360000062
感知结果为θ=0的概率为
Figure BDA0003895022360000063
信道信任值更新为:
Figure BDA0003895022360000064
确认了空闲信道,我们会获得信道功率增益gxy
Figure BDA0003895022360000065
对于信道模型,同时考虑了大尺度路径损耗衰减和小尺度瑞利衰落。hxy表示瑞利衰落信道增益,
Figure BDA0003895022360000066
表示大尺度路径损耗衰减,dxy表示x与y之间的距离,d0表示参考距离,α表示路径损失指数,x表示发射机(N个CIoT节点、CBS和恶意攻击节点都是发射机),y表示接收机(N个CIoT节点和CBS都是接收机)。
每个CIoT节点均可以利用射频能量采集装置从其他CIoT节点和干扰节点的信号中获取能量,每个CIoT节点只在接收到CBS的控制指令后选择进行频谱接入、能量采集或数据传输。IL(t)表示第t个时隙的空闲信道数,其中IL(t)≤L。CIoT节点和CBS以同步的时隙方式运行。Pi(t)表示第t个时隙上CIoT节点i的发射功率。因此,在第t个时隙上,所有CIoT节点的功率分配策略集合表示为P(t)={Pi(t),i=1,2,...,N},其中P(t)中大于零的元素数记为INp(t)。如果Pi(t)>0,则选择相应的节点CIoT节点i在访问模式下工作,以使用分配的功率Pi(t)进行数据传输。否则,如果Pi(t)=0,则表示对应的节点CIoT节点i在采集模式下工作。因此,IN(t),被选择访问空闲通道的CIoT节点的数量,应该等于INp(t)。CIoT节点i在第t个时间槽的工作模式Mi(t)可以描述为:
Figure BDA0003895022360000067
因此,第t个时间段的所有节点的工作模式集可以表示为M(t)={Mi(t),i=1,...,N}。
在我们考虑的系统中,CBS有足够的电网供电,恶意攻击节点也设置为有源供电,而CIoT节点则由从周围环境中获得的射频能量供电。这意味着每个CIoT节点都可以从其他活动的辅助节点的传输信号中获取能量。如附图2所示,CIoT节点的通信操作以时隙结构的形式依次连续进行,时隙包括两部分:控制阶段和操作阶段(工作阶段)。在控制阶段,CIoT节点接收来自CBS发送的控制信号,即频谱接入、工作模式和连续功率控制信号。在操作阶段,CIoT节点根据控制阶段获得的控制指令,或进行频谱接入并数据传输,或进行射频能量采集。
基于上述说明,单个CIoT节点i在第t个时隙的采集射频能量可以描述为:
Figure BDA0003895022360000071
其中,η表示能量转换率,T为每个时隙的周期,τ为每个时隙中控制阶段的持续时间,其中包括信令交换和策略广播的时间,PJ(t)表示恶意攻击节点在第t个时隙上的功率,Pk(t)表示CIoT节点k在第t个时隙上的功率,gJi(t)表示恶意攻击节点与CIoT节点i之间的信道增益,gki(t)表示CIoT节点k与CIoT节点i之间的信道增益。第t个时隙上所有CIoT节点收获的能量的集合记为E(t)={Ei(t),i=1,...,N}。
电池容量标记为Bmax,所有CIoT节点的电池容量都一样。所有节点的当前电池状态集合记为B(t)={Bi(t),i=1,...,N}。由于能量收集过程和能量转换也需要时间,在当前时隙中收集的能量被存储在电池中,并将在未来的时隙中使用。可充电电池被认为是理想的,因为在能量储存或回收过程中没有能量损失。一旦电池满了,额外收集的能量就被放弃了。所收集的能量被认为仅用于信令交换和数据传输。信号交换所需的能量表示为eS,它是一个常数。CIoT节点i在不同时隙上的电池演化可以表示为:
Bi(t+1)=min{Bmax,Bi(t)+Ei(t)-(T-τ)Mi(t)Pi(t)-Zi(t)eS} (7)
Figure BDA0003895022360000072
其中,Zi(t)表示电池容量必须大于控制信号交换所需的能量,不然强制执行能量采集。
MAN采用随机、扫描两种不同方式的干扰攻击对CIoT节点的信道进行攻击,扫描攻击我们认为是有固定进攻策略的,攻击的策略只与上一时刻的攻击状态有关,所以恶意攻击被描述是符合马尔可夫决策过程(MDP)。我们假设一个功率有限的干扰模型,在每个时隙中,MAN可以在m个通道上以最大功率Pmax的发射干扰信号。MAN在其时间平均功率上也有一个约束Pavg,其中Pavg<Pmax。在每个时隙中,MAN可以从M+1个离散功率水平{Pj0,Pj1,...,PjM}中进行选择,我们假设MAN在所有的m个通道上发出相同的功率水平。我们将
Figure BDA0003895022360000081
表示为一个攻击概率向量。在每个时隙中,当发射机在目标信道上主动传输数据时,如果满足平均功率约束,干扰器可以以功率Pji攻击该信道。最终,接收器接收到的信号干扰噪声比(SINR)为:
Figure BDA0003895022360000082
其中,fi(t)=fj(t)表示发射机所选的信道被恶意节点攻击,fi(t)≠fj(t)表示发射机所选的信道未被恶意节点攻击,n表示高斯白噪声。
传输策略优化方法。本发明的目标是最大化CIoT节点的吞吐量,根据吞吐量公式,吞吐量与传输功率成正比,而传输功率与传输时间成反比,无论功率如何变化,传输时间和吞吐量都是此消彼长的关系,因此,我们需要合理的控制CIoT节点选择合适的功率值才能平衡二者对CIoT节点吞吐量的影响。
由上所述,我们的目的是解决一个组合优化的问题,随着机器学习的不断成熟,强化学习算法开始被提出用来解决频谱资源分配问题。强化学习是指智能系统以试错的方式来获得系统从环境信息到行动的映射,以使得系统行动能从环境中获得最大的累积效用。对于认知物联网络来说,强化学习状态是利用外部环境状态的学习及对先前状态的一些报酬累积,去判断并执行下一个策略行为,而这些报酬的积累是用来表示先前外部环境的影响,必须通过每一次策略行为后进行及时更新。本发明中,长期吞吐量最大化被定义为马尔可夫决策过程(MDP)的一个框架,如附图3。随后,提出了深度确定性的策略梯度算法(DDPG)的调度方案,以实现MDP问题的最优策略。DDPG是为了解决连续动作控制问题而提出的算法。以前学习的Q-learning算法、Sarsa算法以及DQN算法针对的动作空间都是离散的,DDPG就是对DQN算法的扩展,主要就是让DQN能够解决连续动作控制的问题而提出的。经过多次迭代后,系统在面对不同的状态时,可以自行做出最优的动作。本文在单用户的使用场景下,将马尔科夫决策过程中的各类参数设置如下:
Agent:CBS;
状态空间S:信道状态、CIoT节点的功率状态和电池水平;
动作空间A:频谱感知策略、动态接入调度、工作模式选择和功率分配策略;
奖励函数R:n个时隙内CIoT节点总吞吐量的期望值。
如图1至图3所示,本实例提供了一种基于深度强化学习的能量采集认知物联网络抗干扰最优传输方案,具体包括以下步骤:
步骤1、首先搭建强化学习环境(environment),考虑一个以认知基站(CBS)为圆心半径为1km的范围,N个CIoT节点位于圆内且服从泊松分布,CIoT节点拥有相同的初始功率P(t0)={P1(t0)=P0,...,PN(t0)=P0}和电池水平B(t0)={B1(t0)=B0,...,BN(t0)=B0},空闲信道数量为L。在此范围内考虑一个恶意攻击节点,它也服从泊松分布,也有初始功率Pj(t0)=Pj0。CBS为agent使用强化学习算法与环境进行交互。
步骤2、构建基于深度强化学习的认知通信网络抗干扰资源分配算法,首先生成通信网络的拓扑结构,初始化训练轮次数episode,每轮训练次数steps,actor的学习率lr_A,critic的学习率lr_C,奖励折扣率γ,经验回放池D的最大容量C,训练批次大小batch_size以及神经网络权重参数:策略网络actor的online权重θμ和actor的target权重θμ′,Q网络critic的online权重θQ和actor的target权重θQ′,见图4。
步骤3、在每个episode的开始,更新认知通信网络环境中所有CIoT节点和攻击节点的位置和并重新计算所有链路的信道增益,包括CIoT节点与CBS的信道增益
Figure BDA0003895022360000091
和恶意攻击节点与CIoT节点的信道增益
Figure BDA0003895022360000092
更新频谱感知得到的信道状态(繁忙或空闲)I(t)={I1(t),...,IL(t)};更新后的CIoT节点电池状态B(t)={B1(t),...,BN(t)}。将这三个组合为状态空间
Figure BDA0003895022360000093
作为每个episode的开始的初始状态。
步骤4、在每个episode的第t个step,CBS将
Figure BDA0003895022360000094
带入DDPG算法得到动作
Figure BDA0003895022360000095
将动作与环境交互,在τ时间内CIoT节点根据
Figure BDA0003895022360000096
更新每个节点的工作模式Mi(t),选择频谱接入或能量采集,之后在(1-τ)的时间内通过能量采集公式更新每个CIoT节点获取的能量Ei(t),或者在(1-τ)的时间内按照功率Pi(t)接入空闲信道进行数据传输。在(1-τ)时间结束后按公式更新每个CIoT节点电池状态Bi(t+1)。CBS在每个t时隙最后根据公式计算CIoT节点总的吞吐量即强化学习的奖励r:
Figure BDA0003895022360000101
其中T为每个时隙的时长,W为带宽,SINRi(t)为第i个CIoT节点的信噪比。在得到奖励r后,对于长期的系统性能,即累积吞吐量,不仅应该考虑当前时间段t上的瞬时奖励r,还应该考虑未来的奖励。因此,从第t个时间段开始的折现未来累积吞吐量表示如下:
Figure BDA0003895022360000102
其中,折扣率0<γ<1。
本发明的目标是将累计吞吐量最大化,可以表述为:
Figure BDA0003895022360000103
s.t. INP(t)≤IL(t) (13)
Figure BDA0003895022360000104
Figure BDA0003895022360000105
步骤5、CBS将动作
Figure BDA0003895022360000106
每带入环境后,环境会返回相应的奖励r和下一状态
Figure BDA0003895022360000107
CBS将这个状态转换过程
Figure BDA0003895022360000108
存入经验回放池R,作为训练online网络的数据集。之后从经验回放池R中,随机采样batch_size个已存放数据作为online策略网络、online Q网络的一个mini-batch训练数据。我们用(si,ai,ri,si+1)表示batch_size中的单个transition数据。接下来进行DDPG算法神经网络的更新:
1)计算online Q网络的gradient:
Q网络的loss定义:使用类似于监督式学习的方法,定义loss为均方误差(MSE):
Figure BDA0003895022360000109
其中yi其中为状态值函数:
yi=ri+γQ′(si+1,μ′(si+1θμ′Q′) (17)
基于标准的反向传播方法,就可以求得L针对θQ的gradient:
Figure BDA0003895022360000111
2)更新online Q网络:采用Adam optimizer。
3)计算online策略网络的policy gradient:
本发明采用off-policy的训练方法,policy gradient算法如下:
Figure BDA0003895022360000112
也即,policy gradient是在s根据pβ分布时
Figure BDA0003895022360000113
的期望值,我们用Monte-carlo方法来估算这个期望值,在经验回放池中存储的(si,ai,ri,si+1),是基于CBS的行为策略β产生的,它们的分布函数(pdf)为pβ,所以当我们从经验回放池中随机采样获得batch_size数据时,根据Monte-carlo方法,将数据代入上述policy gradient公式,可以作为对上述期望值的一个无偏估计,所以policy gradient可以改写为:
Figure BDA0003895022360000114
4)更新online策略网络:采用Adam optimizer。
5)软更新target策略网络和target Q网络,通过让这些target网络的权重缓慢地跟踪学习到的online网络来进行更新:
Figure BDA0003895022360000115
其中,ξ∈(0,1]表示基于DDPG的算法中target网络的更新速率。
为了展示本方法的效果,我们将研究该算法在吞吐量方面的性能,我们比较了几种传统的传输策略算法,分别是:
1.随机传输策略,它随机选择CIoT节点来访问空闲通道,并从
Figure BDA0003895022360000116
中为这些节点选择功率。
2.贪婪的传输策略,它选择CIoT节点访问具有最大信噪比的信道,选择消耗所有剩余能量以最大限度地提高即时吞吐量,而不考虑长期吞吐量。
3.DQN传输策略,使用传统的DQN算法对CIoT节点进行离散功率分配,其中分配的传输功率从预处理的离散功率集中选择:
Figure BDA0003895022360000121
如图5所示,在信道数量为10,频谱空闲概率为50%的环境中,受物联网设备的限制,设CIoT节点的最大发射功率为100mW,电池最大容量5J,控制信号交换所消耗功率为固定值es=10mW,带宽为1MHz,加性高斯白噪声功率谱密度为-170dBm/Hz,时隙周期T为1s,控制时长τ=0.2s,能量转换率η=0.8,信噪比阈值SINRthreshold=10dB。训练轮次数episodes为500,每轮训练次数steps为100,结果表明,在无恶意攻击下的环境里,DDPG算法所获得的平均吞吐量比其他算法的都要高出许多。随机算法由于不考虑信道状态和信道增益也不考虑CIoT节点的电池状态,只是随机的分配功率给随机的信道,故而平均吞吐量最低;e-greedy算法考虑信道状态,对感知到的空闲信道贪婪的分配最大的功率且不考虑电池状态,故而也只有较低的平均吞吐量;DQN算法即考虑信道状态也考虑CIoT节点的电池状态,但是只有固定的离散功率进行分配;我们的DDPG算法在DQN的基础上考虑了连续的功率变化,因此获得了最高的平均吞吐量,比DQN高了40%,是e-greedy算法的两倍。
如图6所示,其他前置条件相同的情况下,加入了恶意攻击节点,节点以random攻击方式,在每个时隙随机选择m=3个信道进行攻击,最大干扰功率为200mW。结果表明random与e-greedy算法由于不考虑信道状态和电池状态,干扰对其的影响有限,但仍然保持一个低水平的平均吞吐量;DQN和DDPG在random攻击干扰下,平均吞吐量较无攻击情况下有明显下降,但仍远高于random与e-greedy算法,这是由于随机干扰攻击的策略不确定性造成的,算法难以学习到随机策略。
如图7所示,其他前置条件相同的情况下,加入了恶意攻击节点,节点以扫描(scan)攻击方式,在每个时隙按照固定的扫描策略,对m=3个信道进行攻击,在最大干扰功率为200mW。结果表明干扰对random与e-greedy算法的影响依旧有限且吞吐量保持一个低水平;DQN受扫描干扰影响最重,固定的功率分配使其无法应对扫描干扰的侵害,吞吐量只比e-greedy算法略高;DDPG由于使用连续的功率分配,且使用策略网络actor和Q网络critic相互学习,更新网络权重,因此可以更好的学习到扫描干扰的策略,并制定策略,在被干扰的信道进行能量采集,在未被干扰的信道进行信道接入,因而获得了最高的平均吞吐量。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (5)

1.一种能量采集认知物联网络抗干扰最优传输方法,其特征在于,通过将认知无线电技术、能量采集技术、抗干扰技术在通信领域相结合,对认知通信网络各个节点在发送、接收信号被恶意攻击的情况下,认知基站无需先验知识,无模型的学习恶意节点信道攻击策略,制定对抗策略并调节各个节点的信道接入、模式选择和功率分配以达到系统吞吐量最大化目的。
2.根据权利要求1所述的一种能量采集认知物联网络抗干扰最优传输方法,其特征在于,该方法具体步骤如下:
步骤1、搭建强化学习环境,考虑一个以认知基站CBS为圆心半径为1km的范围,N个CIoT节点位于圆内且服从泊松分布,CIoT节点拥有相同的初始功率P(t0)={P1(t0)=P0,...,PN(t0)=P0}和电池水平B(t0)={B1(t0)=B0,...,BN(t0)=B0},空闲信道数量为L;在此范围内考虑一个恶意攻击节点,它也服从泊松分布,也有初始功率Pj(t0)=Pj0;CBS为agent使用强化学习算法与环境进行交互;
步骤2、构建基于深度强化学习的认知通信网络抗干扰资源分配算法,首先生成认知通信网络的拓扑结构,初始化训练轮次数episode,每轮训练次数steps,actor的学习率lr_A,critic的学习率lr_C,奖励折扣率γ,经验回放池D的最大容量C,训练批次大小batch_size以及神经网络权重参数:策略网络actor的online权重θμ和actor的target权重θμ′,Q网络critic的online权重θQ和actor的target权重θQ′
步骤3、在每个episode的开始,更新认知通信网络环境中所有CIoT节点和攻击节点的位置和并重新计算所有链路的信道增益,包括CIoT节点与CBS的信道增益
Figure FDA0003895022350000011
和恶意攻击节点与CIoT节点的信道增益
Figure FDA0003895022350000012
更新频谱感知得到的信道状态I(t)={I1(t),...,IL(t)},信道状态为繁忙或空闲;更新后的CIoT节点电池状态B(t)={B1(t),...,BN(t)};得到状态空间
Figure FDA0003895022350000013
作为每个episode的开始的初始状态;
步骤4、在每个episode的第t个step,CBS将
Figure FDA0003895022350000014
带入DDPG算法得到动作
Figure FDA0003895022350000015
将动作与环境交互,在τ时间内CIoT节点根据
Figure FDA0003895022350000016
更新每个节点的工作模式Mi(t),选择频谱接入或能量采集,之后在(1-τ)的时间内通过能量采集公式更新每个CIoT节点获取的能量Ei(t),或者在(1-τ)的时间内按照功率Pi(t)接入空闲信道进行数据传输;在(1-τ)时间结束后更新每个CIoT节点电池状态Bi(t+1);CBS在每个t时隙最后根据下式计算CIoT节点总的吞吐量即强化学习的奖励r:
Figure FDA0003895022350000021
其中T为每个时隙的时长,W为带宽,SINRi(t)为第i个CIoT节点的信噪比;在得到奖励r后,对于长期的系统性能,即累积吞吐量,不仅应该考虑当前时间段t上的瞬时奖励r,还应该考虑未来的奖励;因此,从第t个时间段开始的折现未来累积吞吐量表示如下:
Figure FDA0003895022350000022
其中,折扣率0<γ<1;
将累计吞吐量最大化,表述为:
Figure FDA0003895022350000023
s.t.INP(t)≤IL(t)
Figure FDA0003895022350000024
Figure FDA0003895022350000025
其中,
Figure FDA0003895022350000026
表示期望的给定值,G(t)表示从第t个时隙开始的折现未来累积吞吐量,INP(t)表示第t个时间段上功率分配策略集合中大于零的元素数,IL(t)表示第t个时间段处的空闲通道数,T为每个时隙的周期,τ为每个时隙中控制阶段的持续时间,Pi(t)表示第t个时隙处CIoT节点i的发射功率,es表示为信号交换所需的能量,gib(t)表示CIoT节点i与CBS之间的信道增益,n表示高斯白噪声n~N(0,ω2),SINRthreshold表示信干噪比阈值;
步骤5、CBS将动作
Figure FDA0003895022350000027
每带入环境后,环境会返回相应的奖励r和下一状态
Figure FDA0003895022350000028
CBS将这个状态转换过程
Figure FDA0003895022350000029
存入经验回放池R,作为训练online网络的数据集;之后从经验回放池R中,随机采样batch_size个已存放数据作为online策略网络、online Q网络的一个mini-batch训练数据;用(si,ai,ri,si+1)表示batch_size中的单个transition数据;而后进行DDPG算法神经网络的更新。
3.根据权利要求2所述的一种能量采集认知物联网络抗干扰最优传输方法,其特征在于,DDPG算法神经网络的更新步骤如下:
1)计算online Q网络的gradient;
2)更新online Q网络:采用Adam optimizer;
3)计算online策略网络的policy gradient;
4)更新online策略网络:采用Adam optimizer;
5)软更新target策略网络和target Q网络,通过让target网络的权重缓慢地跟踪学习到的online网络来进行更新:
Figure FDA0003895022350000031
其中,ξ∈(0,1]表示基于DDPG的算法中target网络的更新速率。
4.根据权利要求3所述的一种能量采集认知物联网络抗干扰最优传输方法,其特征在于,计算online Q网络的gradient方式如下:
Q网络的loss定义:使用类似于监督式学习的方法,定义loss为均方误差MSE:
Figure FDA0003895022350000032
其中yi其中为状态值函数:
yi=ri+γQ′(si+1,μ′(si+1μ′)|θQ′)
基于标准的反向传播方法,求得L针对θQ的gradient:
Figure FDA0003895022350000033
5.根据权利要求3所述的一种能量采集认知物联网络抗干扰最优传输方法,其特征在于,计算online策略网络的policy gradient,采用off-policy的训练方法,policygradient公式如下:
Figure FDA0003895022350000034
policy gradient是在s根据pβ分布时
Figure FDA0003895022350000035
的期望值,用Monte-carlo方法来估算这个期望值,在经验回放池中存储的(si,ai,ri,si+1)是基于CBS的行为策略β产生的,它们的分布函数(pdf)为pβ,所以当从经验回放池中随机采样获得batch_size数据时,根据Monte-carlo方法,将数据代入上述policy gradient公式,作为对上述期望值的一个无偏估计,policy gradient改写为:
Figure FDA0003895022350000041
CN202211271268.XA 2022-10-18 2022-10-18 一种能量采集认知物联网络抗干扰最优传输方法 Active CN115766089B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211271268.XA CN115766089B (zh) 2022-10-18 2022-10-18 一种能量采集认知物联网络抗干扰最优传输方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211271268.XA CN115766089B (zh) 2022-10-18 2022-10-18 一种能量采集认知物联网络抗干扰最优传输方法

Publications (2)

Publication Number Publication Date
CN115766089A true CN115766089A (zh) 2023-03-07
CN115766089B CN115766089B (zh) 2024-06-28

Family

ID=85352174

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211271268.XA Active CN115766089B (zh) 2022-10-18 2022-10-18 一种能量采集认知物联网络抗干扰最优传输方法

Country Status (1)

Country Link
CN (1) CN115766089B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117390404A (zh) * 2023-12-12 2024-01-12 无锡市德宁节能科技有限公司 一种物联网护栏的能量储存控制方法
CN117675871A (zh) * 2024-01-31 2024-03-08 珠江水利委员会珠江水利科学研究院 基于IPv6网络及北斗三号的多信道水利智慧交互前端联网方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105792218A (zh) * 2016-02-25 2016-07-20 中山大学 具有射频能量收集能力的认知无线电网络的优化方法
KR102235645B1 (ko) * 2019-10-29 2021-04-02 서울대학교산학협력단 다중 기지국 대용량 안테나 시스템에서 에너지 하베스팅을 수행할 기지국을 결정하는 장치 및 방법
CN113727452A (zh) * 2021-09-08 2021-11-30 福州大学 一种能量采集下基于博弈论的认知无线电频谱分配的方法
US20210376877A1 (en) * 2018-11-12 2021-12-02 Analog Devices International Unlimited Company Smart scheduling of tsch networks to avoid self-interference
CN114126021A (zh) * 2021-11-26 2022-03-01 福州大学 一种基于深度强化学习的绿色认知无线电的功率分配方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105792218A (zh) * 2016-02-25 2016-07-20 中山大学 具有射频能量收集能力的认知无线电网络的优化方法
US20210376877A1 (en) * 2018-11-12 2021-12-02 Analog Devices International Unlimited Company Smart scheduling of tsch networks to avoid self-interference
KR102235645B1 (ko) * 2019-10-29 2021-04-02 서울대학교산학협력단 다중 기지국 대용량 안테나 시스템에서 에너지 하베스팅을 수행할 기지국을 결정하는 장치 및 방법
CN113727452A (zh) * 2021-09-08 2021-11-30 福州大学 一种能量采集下基于博弈论的认知无线电频谱分配的方法
CN114126021A (zh) * 2021-11-26 2022-03-01 福州大学 一种基于深度强化学习的绿色认知无线电的功率分配方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HAYTHEM A: "Energy- efficient cross-layer spectrum sharing in CR green IoT networks", IEEE TRANSACTIONS ON GREEN COMMUNICATIONS AND NETWORKING, vol. 5, no. 3, 29 April 2021 (2021-04-29), XP011873774, DOI: 10.1109/TGCN.2021.3076695 *
SHRUTI P. LAD 等: "An Online Algorithm for Energy Harvesting Cognitive Radio IoT Network", 2019 IEEE INTERNATIONAL CONFERENCE ON ADVANCED NETWORKS AND TELECOMMUNICATIONS SYSTEMS (ANTS), 19 December 2019 (2019-12-19) *
赵振涛 等: "基于能量采集的认知无线电传输优化策略", 中国传媒大学学报 (自然科学版), vol. 28, no. 2, 28 April 2021 (2021-04-28) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117390404A (zh) * 2023-12-12 2024-01-12 无锡市德宁节能科技有限公司 一种物联网护栏的能量储存控制方法
CN117390404B (zh) * 2023-12-12 2024-02-23 无锡市德宁节能科技有限公司 一种物联网护栏的能量储存控制方法
CN117675871A (zh) * 2024-01-31 2024-03-08 珠江水利委员会珠江水利科学研究院 基于IPv6网络及北斗三号的多信道水利智慧交互前端联网方法及系统
CN117675871B (zh) * 2024-01-31 2024-04-30 珠江水利委员会珠江水利科学研究院 基于IPv6网络及北斗三号的多信道水利智慧交互前端联网方法及系统

Also Published As

Publication number Publication date
CN115766089B (zh) 2024-06-28

Similar Documents

Publication Publication Date Title
CN109729528B (zh) 一种基于多智能体深度强化学习的d2d资源分配方法
CN115766089B (zh) 一种能量采集认知物联网络抗干扰最优传输方法
Ma et al. UAV-aided cooperative data collection scheme for ocean monitoring networks
Zhao et al. Joint power control and channel allocation for interference mitigation based on reinforcement learning
CN106358308A (zh) 一种超密集网络中的强化学习的资源分配方法
Tang et al. Energy efficient power allocation in cognitive radio network using coevolution chaotic particle swarm optimization
Arani et al. Distributed learning for energy-efficient resource management in self-organizing heterogeneous networks
CN113225794B (zh) 一种基于深度强化学习的全双工认知通信功率控制方法
Toumi et al. An adaptive Q-learning approach to power control for D2D communications
Mu et al. Power allocation based on reinforcement learning for MIMO system with energy harvesting
Tan et al. Deep reinforcement learning for channel selection and power control in D2D networks
Biswas et al. Sum throughput maximization in a cognitive multiple access channel with cooperative spectrum sensing and energy harvesting
Srinidhi et al. Lifetime maximization of IoT network by optimizing routing energy
CN114423070A (zh) 一种基于d2d的异构无线网络功率分配方法及系统
Abuzainab et al. Robust Bayesian learning for wireless RF energy harvesting networks
CN111065121B (zh) 一种考虑小区差异的密集网络能耗及能效联合优化方法
Liu et al. An iterative two-step algorithm for energy efficient resource allocation in multi-cell OFDMA networks
Saied et al. Resource management based on reinforcement learning for D2D communication in cellular networks
Han et al. Optimizing actuators deployment for WSAN using hierarchical intermittent communication particle swarm optimization
Alenezi et al. Energy-efficient power control and resource allocation based on deep reinforcement learning for D2D communications in cellular networks
Du et al. Joint time and power control of energy harvesting CRN based on PPO
Alsharoa et al. On the dual-decomposition-based resource and power allocation with sleeping strategy for heterogeneous networks
Zhang et al. Energy-efficient resource optimization in spectrum sharing two-tier femtocell networks
Wang et al. Age of information optimization in heterogeneous multi-access cognitive radio networks
Galindo-Serrano et al. On implementation requirements and performances of Q-learning for self-organized femtocells

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant