CN113923123A - 一种基于深度强化学习的水下无线传感器网络拓扑控制方法 - Google Patents
一种基于深度强化学习的水下无线传感器网络拓扑控制方法 Download PDFInfo
- Publication number
- CN113923123A CN113923123A CN202111121811.3A CN202111121811A CN113923123A CN 113923123 A CN113923123 A CN 113923123A CN 202111121811 A CN202111121811 A CN 202111121811A CN 113923123 A CN113923123 A CN 113923123A
- Authority
- CN
- China
- Prior art keywords
- network
- topology
- topology control
- state
- underwater
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/12—Discovery or management of network topologies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
- H04W28/0883—Load balancing or load distribution between entities in ad-hoc networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W40/00—Communication routing or communication path finding
- H04W40/24—Connectivity information management, e.g. connectivity discovery or connectivity update
- H04W40/248—Connectivity information update
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种基于深度强化学习的水下无线传感器网络拓扑控制方法;它分为离线训练和在线控制两个阶段,在离线训练阶段,根据已有的网络信道和传输信息,在强化学习的框架下按照预定的拓扑控制顺序去训练网络拓扑控制方法;在此过程中本发明设计了一种基于强化学习的拓扑控制方法,它能够获得能耗均衡且连通的网络拓扑结构;同时本发明提出了一个基于深度学习的蒙特卡洛树搜索方法去评估拓扑控制过程中每个动作选择的收益;在线控制阶段,拓扑控制中心定期接收来自水下传感器节点的信息包,获取有关网络信道和传输状态的有用参数值;根据这些参数值,拓扑控制中心使用与离线训练部分相同的强化学习框架生成网络拓扑,以适应当前动态的水下环境;本发明可以根据水下通信环境为水下无线传感器网络重新生成网络拓扑,在满足网络连通性要求的同时有效延长网络生命周期。
Description
技术领域
本发明主要涉及水下无线传感网络技术领域,尤其涉及一种基于深度强化学习的水下无线传感器网络拓扑控制方法
背景技术
水下无线传感器网络是一种实时、便捷、易扩展的水下信息感知和收集的网络,能够提高对海洋环境的监控和预测能力,以及增强处理海洋突发事件的能力。它有着广泛的应用场景,如海洋信息采集、环境监测、深海探测、灾害预测、辅助导航、分布式战术监控等。在水下无线传感器网络中,水下传感器节点通常由电池供电,电池容量严重受限,充电不方便。为了保证海洋应用的服务时间,支持海洋应用的水下无线传感器网络的网络生命周期至关重要。然而,在复杂、动态的水下环境中,优化水下无线传感器网络的网络生存期是一个非常具有挑战性的问题。首先,水下通信的能耗远高于地面无线传感器网络通信的能耗。此外,低质量的水下无线信道容易造成数据重传问题,进一步增加水下无线传感器网络的能量消耗。例如,水声通信质量容易受到多普勒效应、多径效应和海洋环境噪声等多种因素的影响;水下环境的浑浊度影响水下无线光通信的信道质量。此外,水流引起的水下传感器节点移动容易破坏网络拓扑结构,降低水下无线传感器网络的数据传输的可靠性。
拓扑控制是优化水下无线传感器网络的网络生命周期的重要方法之一。拓扑控制的目的是在保证网络连通性和网络覆盖的前提下,为水下无线传感器网络的数据传输阶段提供一种传输功率降低、网络负载均衡的网络拓扑。然而,现有的水下无线传感器网络拓扑控制策略缺乏及时有效地感知网络整体状态(信道状态和传输状态)的能力。具体来说,为了降低算法复杂度,提高计算效率,水下无线传感器网络的拓扑控制策略大多采用分布式启发式设计,无法从全局角度获取水下信道状态的特征。此外,数据传输阶段相关内置协议(路由协议和MAC协议)的传输状态特征也影响拓扑控制策略的设计;这是因为拓扑控制本质上是为数据传输服务的。综上可知,如果水下无线传感器网络的拓扑控制策略不能充分考虑上述状态特征,将会严重削弱其优化网络生命周期的性能。因此,需要在水下无线传感器网络中设计一种能够充分感知整个网络各种状态的拓扑控制方法。
如期刊论文“A Complex Network Approach to Topology Control Problem inUnderwater Acoustic Sensor Networks”提出了一种基于复杂网络的水下无线传感器网络拓扑控制策略,该策略以最小化传输能耗和提高数据传输可靠性为目标,根据水下传感器节点的局部信息去构建一种双分簇的网络拓扑结构,在保证网络拓扑具有复杂网络特征的前提下最小化网络能耗,从而延长网络生命周期。但是它没有考虑复杂动态的水下信道对网络拓扑的整体影响以及没有考虑后期运行的相关传输协议是否适用于该网络拓扑,从而导致数据传输成功率低以及网络生命周期短的问题。针对现有水下无线传感器网络的拓扑控制策略无法充分利用整体网络的信道和数据传输信息的问题,本发明提出了一种基于深度强化学习的水下无线传感器网络拓扑控制方法;它能有效保证网络连通性,降低和均衡网络能量消耗,从而延长网络生命周期。
发明内容
为解决上述技术问题,本发明提供一种基于深度强化学习的水下无线传感器网络拓扑控制方法。本发明是一种集中式的拓扑控制方法,它分为离线训练和在线控制两个阶段。首先在离线训练阶段,本发明设计了一个拓扑控制预定顺序的方法,按照该顺序去控制网络拓扑能够有效均衡网络负载,并同时保证网络的连通性。然后,本发明设计了一种基于强化学习的拓扑控制方法去根据网络的信道和传输信息生成网络拓扑;在此过程中本发明提出了一个基于深度学习的蒙特卡洛树搜索方法去评估每个动作选择的收益。最后,本发明设计了一种自学习方法去生成训练一个卷积神经网络,该卷积神经网络被训练后将用于在线部分的拓扑控制过程的动作选择的奖励评估。在网络运行的在线控制阶段,拓扑控制中心定期接收来自水下传感器节点的信息包,获取有关网络信道和传输状态的有用参数值。根据这些参数值,拓扑控制中心使用与离线训练部分相同的强化学习框架生成网络拓扑,以适应当前动态的水下环境。水下传感器节点在升级后的网络拓扑上使用现有路由策略进行数据传输。当拓扑控制的周期时间到达时,水下传感器节点将当前网络信道和传输状态的信息包发送到拓扑控制中心,拓扑控制中心重新生成网络拓扑。
本发明的目的通过以下技术方案来实现:一种基于深度强化学习的水下无线传感器网络拓扑控制方法,包括以下步骤:
一种基于深度强化学习的水下无线传感器网络拓扑控制方法,包括如下步骤:
S1.离线训练阶段
步骤101:拓扑控制中心获取已经完成部署的水面汇聚节点和水下传感器节点的坐标信息,并根据这些坐标信息生成拓扑控制预定顺序;
步骤102:拓扑控制中心为初始网络拓扑中的每条链路随机生成传输成功概率,同时为每个水下传感器节点随机生成剩余能量值;
步骤103:拓扑控制中心根据强化学习框架按照拓扑控制预定顺序依次为水下传感器节点选择它的数据传输的下一跳节点,并将该选择作为当前状态的卷积神经网络的训练数据;
步骤104:卷积神经网络的训练数据集合存储到训练元组;
步骤105:在下一次的拓扑控制过程中,拓扑控制中心利用更新完卷积神经网络的基于深度学习的蒙特卡洛树搜索方法去计算动作收益;
步骤106:判断拓扑控制中心是否达到预先设定的自学习次数,满足条件进入在线控制阶段;否则返回步骤102;
S2、在线控制阶段
步骤201:水下传感器节点将当前网络信道和传输状态的信息包发送到拓扑控制中心;
步骤202:当拓扑控制中心接收到所有水下传感器节点的信息包后,拓扑控制中心使用与离线训练部分相同的强化学习框架生成网络拓扑;
步骤203:当拓扑控制中心生成网络拓扑后,它以能够覆盖所有水下传感器节点的发射功率发送网络拓扑信息包;水下传感器节点收到网络拓扑信息包后,根据网络拓扑信息包,重新选择邻居节点进行连接,达到根据水下通信环境去进行网络拓扑控制的目的。
进一步,所述步骤103中拓扑控制中心为水下传感器节点传输的下一跳节点过程;
步骤302:拓扑控制中心选择当前状态st的所有动作中具有最大收益的动作去作为当前状态下采取的最佳动作(即最优策略);
步骤303:当前状态st转移到下一个状态st+1,直到所有状态被遍历。
进一步,所述步骤301中基于深度学习的蒙特卡洛树搜索方法包含四个步骤:选择、扩展、模拟和方向传播:
1)选择过程:以水下传感器节点ni对应当前状态st作为搜索树的根节点,当前状态st的最优动作由公式1计算所得;当前状态st执行最优动作后,转移到由最优动作决定的下一个状态st+1,这个状态st+1将执行动作选择;重复上述步骤直到到达一个之前没有出现过的状态,它被称为叶子状态。
其中公式1表示如下:
式中at是当前状态st的一个动作;At是当前状态st的动作集;C是一个预先设定的调节系数,且C>0;M(st)是相同最优动作下状态st对应的水下传感器节点被到达的次数;M(st,at)是当前状态st选择动作at的次数;Qπ(st,at)是当前状态st选择动作at期望收益,它由公式2计算获得;p(st,at)是当前状态st选择动作at的估计概率,它通过向卷积神经网络输入当前状态st和动作at获得;
其中公式2表示如下:
式中M(st,at)是当前状态st选择动作at的次数;Qπ'(st,at)是第M(st,at)-1次时的当前状态st选择动作at的期望收益;Vt+1(at)表示执行动作at到达状态st+1后状态st+1获得的期望收益,它通过向卷积神经网络输入当前状态st和动作at获得;
2)扩展过程:当达到一个叶子状态时,扩展该叶子状态,直到MCTS搜索次数达到设定的阈值;
3)模拟过程:使用公式1来计算在扩展阶段被扩展的叶子状态的最优动作;当到达最终状态shn所对应的水下传感器节点时,状态shn的期望收益为Vhn由公式3获得;当shn执行完动作后,网络拓扑完成生成;
其中:最终状态shn是因为水下传感器节点个数为n以及网络连通性需求的连通度是h,即拓扑控制中心需要按照拓扑控制预定顺序遍历h次网络中n个水下传感器节点:
其中公式3表示如下:
式中式中ahn是当前状态shn的一个动作;Ahn是当前状态shn的动作集;Tπ表示通过将已生成的网络拓扑以及对应的网络信道和传输信息输入到已有的网络模拟器中去计算获得的该网络拓扑对应的网络生命周期;
4)反向传播过程:将公式3的模拟奖励回传给根节点,并更新所经过的所有状态上的信息。
有益效果
1.本发明利用深度强化学习模型设计一种适用于动态水下环境的水下无线传感器网络拓扑控制方法,可以根据水下通信环境为水下无线传感器网络重新生成网络拓扑,在满足网络连通性要求的同时有效延长网络生命周期。
2.本发明在网络未开始运行时利用一种自学习方法去无监督的训练应用于拓扑控制的卷积神经网络,从而提升在线控制阶段经过本发明的拓扑控制方法所得到的网络拓扑的水下环境适应能力。
附图说明
图1为本方法执行的流程图;
具体实施方式
为更加清楚描述实施方式,假设网络中有1个水面汇聚节点,1个水面拓扑控制中心,n个水下传感器节点,每个水下传感器节点的初始能量为E,初始网络拓扑的连通度为k,网络连通性需求的连通度h,其中1≤h≤k。以下结合附图1,对依据本发明设计的水下无线传感器网络的拓扑控制方法的具体方式、结构、特征及作用详细说明如下。
S1.离线训练阶段
步骤101:拓扑控制中心(通常位于水面)获取已经完成部署的水面汇聚节点和水下传感器节点的坐标信息,并根据这些坐标信息生成拓扑控制预定顺序。拓扑控制预定顺序生成如下:首先拓扑控制中心根据各个水下传感器节点到水面汇聚节点的传输时延,将初始网络拓扑简化成最小生成树形式的网络结构(根节点为水面汇聚节点)。将最小生成树的广度优先搜索顺序作为拓扑控制预定顺序。它是遍历一次网络中所有水下传感器节点的顺序。
其中初始网络拓扑是所有水下传感器节点连接自身最大通信半径内的所有其它节点(包括水下传感器节点和水面汇聚节点)所构成的网络拓扑结构。
其中最小生成树形式的网络结构具体为每个水下传感器节点存在一条到达水面汇聚节点通信时延最短的路径,并且这个网络拓扑满足以水面汇聚节点为根的树状结构。
其中广度优先搜索顺序是在树结构中依次按层搜索,并且每一层的水下传感器节点被搜索的顺序是按照水下传感器节点到达水面汇聚节点传输时延由短到长的顺序进行。
其中遍历一次网络中所有水下传感器节点的顺序是指拓扑控制中心根据该顺序依次为每个水下传感器节点选择一个下一跳邻居节点。具体来说,假如网络连通性需求的连通度h,那么扑控制中心需要按照拓扑控制预定顺序遍历h次网络中所有水下传感器节点。
其中邻居节点是指任意一个水下传感器节点通信半径范围内的其它水下传感器节点和通信半径范围内的水面汇聚节点,这些节点都是该水下传感器节点的邻居节点。
步骤102:拓扑控制中心为初始网络拓扑中的每条链路随机生成传输成功概率,同时为每个水下传感器节点随机生成剩余能量值Er。
其中每条链路的传输成功概率为一个从0到1的实数值。
其中水下传感器节点的剩余能量值Er为一个从0到E的实数值。
步骤103:根据强化学习框架,拓扑控制中心按照拓扑控制预定顺序依次为水下传感器节点选择它的数据传输的下一跳节点。该强化学习框架组成部分主要包含五个成分:状态集S、动作集A、策略集π、收益R、状态转移概率矩阵P。状态集S由已经按照拓扑控制预定顺序排序的水下传感器节点的状态组成。每个状态的动作集由每个传感器节点的邻居节点组成,每个状态的动作是指拓扑控制中心为该状态对应的水下传感器节点选择一个下一跳邻居节点。策略集是由状态和动作的组合映射构成。收益表示节点采取某一个策略时对应的奖励。状态转移概率矩阵表示节点当前状态转移到其它某个状态的概率矩阵。
其中状态st是由一个五元组{Tt-1,Tt,At,Pt,Et,}组成。Tt-1表示从状态s1到状态st-1已完成的动作选择;Tt表示从状态s1到当前状态st已完成的动作选择;At表示当前状态st的可选动作集合;Pt表示网络链路传输成功率矩阵;Et表示所有水下传感器节点的能量参数,任意水下传感器节点的能量参数为其剩余能量Er与它初始能量E的比值。
步骤301:按照拓扑控制预定顺序,某水下传感器节点ni为当前状态st对应的水下传感器节点(即当前ni需要选择数据传输的下一跳节点),拓扑控制中心利用基于深度学习的蒙特卡洛树搜索方法去计算当前状态st的每个动作at的收益
其中基于深度学习的蒙特卡洛树搜索方法包含四个步骤:选择、扩展、模拟和方向传播。
1)选择过程:以水下传感器节点ni对应当前状态st作为搜索树的根节点,当前状态st的最优动作由公式1计算所得;当前状态st执行最优动作后,转移到由最优动作决定的下一个状态st+1,这个状态st+1将执行动作选择。重复上述步骤直到到达一个之前没有出现过的状态,它被称为叶子状态。
其中公式1表示如下:
式中at是当前状态st的一个动作;At是当前状态st的动作集;C是一个预先设定的调节系数,且C>0;M(st)是相同最优动作下状态st对应的水下传感器节点被到达的次数;M(st,at)是当前状态st选择动作at的次数。Qπ(st,at)是当前状态st选择动作at期望收益,它由公式2计算获得。p(st,at)是当前状态st选择动作at的估计概率,它通过向卷积神经网络输入当前状态st和动作at获得。
其中公式2表示如下:
式中M(st,at)是当前状态st选择动作at的次数;Qπ'(st,at)是第M(st,at)-1次时的当前状态st选择动作at的期望收益;Vt+1(at)表示执行动作at到达状态st+1后状态st+1获得的期望收益,它通过向卷积神经网络输入当前状态st和动作at获得。
其中卷积神经网络有三部分组成:特征网络、值网络和策略网络。特征网络包含一个卷积模块和三个ResNet模块,卷积模块由一个64卷积滤波器、3×3卷积核、批处理归一化模块和ReLU激活模块组成。每个ResNet由两个卷积滤波器建立,它的每个卷积滤波器都有一个3×3卷积核,一个批处理归一化模块和一个ReLU激活模块。三个ResNet块的卷积滤波器分别为128、256和512。在特征网络之后,卷积神经网络划分为值网络和策略网络两个分支。值网络和策略网络都包含一个卷积模块,该卷积块具有512卷积滤波器、1×1卷积核、批处理归一化模块和ReLU激活模块,然后是全连接层。最后,值网络和策略网络分别使用softmax函数和tanh函数作为两个网络的输出层。估计概率p(st,at)和期望收益Vt+1(at)分别从策略网络和价值网络的输出层获得。
2)扩展过程:当达到一个叶子状态时,扩展该叶子状态,直到MCTS搜索次数达到设定的阈值。
3)模拟过程:使用公式1来计算在扩展阶段被扩展的叶子状态的最优动作。当到达最终状态shn所对应的水下传感器节点时,状态shn的期望收益为Vhn由公式3获得。当shn执行完动作后,网络拓扑完成生成。
其中最终状态shn是因为水下传感器节点个数为n以及网络连通性需求的连通度是h,即拓扑控制中心需要按照拓扑控制预定顺序遍历h次网络中n个水下传感器节点。
其中公式3表示如下:
式中式中ahn是当前状态shn的一个动作;Ahn是当前状态shn的动作集;Tπ表示通过将已生成的网络拓扑以及对应的网络信道和传输信息输入到已有的网络模拟器中去计算获得的该网络拓扑对应的网络生命周期。
4)反向传播过程:将公式3的模拟奖励回传给根节点,并更新所经过的所有状态上的信息。
步骤302:然后,拓扑控制中心选择当前状态st的所有动作中具有最大收益的动作去作为当前状态下采取的最佳动作(即最优策略)。
步骤303:最后,当前状态st转移到下一个状态st+1,直到所有状态被遍历。
步骤104:当拓扑控制中心根据强化学习框架完成网络拓扑控制之后,它将该网络拓扑以及对应的网络信道和传输信息输入到现有的网络模拟器中去计算该网络拓扑对应的网络生命周期。将生成该网络拓扑的每个状态、每个状态的动作概率、以及网络寿命作为一个训练数据集合存储到训练元组中。
步骤105:从训练元组中以随机抽样的方式选择一组训练数据集合去作为训练卷积神经网络的输入,经过这次训练完的卷积神经网络将被更新。在下一次的拓扑控制过程中,拓扑控制中心利用更新完卷积神经网络的基于深度学习的蒙特卡洛树搜索方法去计算动作收益。
步骤106:步骤2-5是采用自学习方法无监督训练神经网络的步骤,重复步骤2-5;直至达到预先设定的自学习次数。
以上步骤仅在本发明拓扑控制方法执行的离线训练阶段根据水下通信环境运行有限次。
S2.在线控制阶段
步骤201:当拓扑控制的周期时间到达时,水下传感器节点将当前网络信道和传输状态的信息包发送到拓扑控制中心。
步骤202:当拓扑控制中心接收到所有水下传感器节点的信息包后,拓扑控制中心使用与离线训练部分相同的强化学习框架生成网络拓扑。
步骤203:当拓扑控制中心生成网络拓扑后,它以能够覆盖所有水下传感器节点的发射功率发送网络拓扑信息包。水下传感器节点收到网络拓扑信息包后,根据网络拓扑信息包,重新选择邻居节点进行连接,达到根据水下通信环境去进行网络拓扑控制的目的。
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。
Claims (3)
1.一种基于深度强化学习的水下无线传感器网络拓扑控制方法,包括如下步骤:
S1.离线训练阶段
步骤101:拓扑控制中心获取已经完成部署的水面汇聚节点和水下传感器节点的坐标信息,并根据这些坐标信息生成拓扑控制预定顺序;
步骤102:拓扑控制中心为初始网络拓扑中的每条链路随机生成传输成功概率,同时为每个水下传感器节点随机生成剩余能量值;
步骤103:拓扑控制中心根据强化学习框架按照拓扑控制预定顺序依次为水下传感器节点选择它的数据传输的下一跳节点,并将该选择作为当前状态的卷积神经网络的训练数据;
步骤104:卷积神经网络的训练数据集合存储到训练元组;
步骤105:在下一次的拓扑控制过程中,拓扑控制中心利用更新完卷积神经网络的基于深度学习的蒙特卡洛树搜索方法去计算动作收益;
步骤106:判断拓扑控制中心是否达到预先设定的自学习次数,满足条件进入在线控制阶段;否则返回步骤102;
S2、在线控制阶段
步骤201:水下传感器节点将当前网络信道和传输状态的信息包发送到拓扑控制中心;
步骤202:当拓扑控制中心接收到所有水下传感器节点的信息包后,拓扑控制中心使用与离线训练部分相同的强化学习框架生成网络拓扑;
步骤203:当拓扑控制中心生成网络拓扑后,它以能够覆盖所有水下传感器节点的发射功率发送网络拓扑信息包;水下传感器节点收到网络拓扑信息包后,根据网络拓扑信息包,重新选择邻居节点进行连接,达到根据水下通信环境去进行网络拓扑控制的目的。
3.根据权利要求2所述的一种基于深度强化学习的水下无线传感器网络拓扑控制方法,其特征在于;所述步骤301中基于深度学习的蒙特卡洛树搜索方法包含四个步骤:选择、扩展、模拟和方向传播:
1)选择过程:以水下传感器节点ni对应当前状态st作为搜索树的根节点,当前状态st的最优动作由公式1计算所得;当前状态st执行最优动作后,转移到由最优动作决定的下一个状态st+1,这个状态st+1将执行动作选择;重复上述步骤直到到达一个之前没有出现过的状态,它被称为叶子状态。
其中公式1表示如下:
式中at是当前状态st的一个动作;At是当前状态st的动作集;C是一个预先设定的调节系数,且C>0;M(st)是相同最优动作下状态st对应的水下传感器节点被到达的次数;M(st,at)是当前状态st选择动作at的次数;Qπ(st,at)是当前状态st选择动作at期望收益,它由公式2计算获得;p(st,at)是当前状态st选择动作at的估计概率,它通过向卷积神经网络输入当前状态st和动作at获得;
其中公式2表示如下:
式中M(st,at)是当前状态st选择动作at的次数;Qπ'(st,at)是第M(st,at)-1次时的当前状态st选择动作at的期望收益;Vt+1(at)表示执行动作at到达状态st+1后状态st+1获得的期望收益,它通过向卷积神经网络输入当前状态st和动作at获得;
2)扩展过程:当达到一个叶子状态时,扩展该叶子状态,直到MCTS搜索次数达到设定的阈值;
3)模拟过程:使用公式1来计算在扩展阶段被扩展的叶子状态的最优动作;当到达最终状态shn所对应的水下传感器节点时,状态shn的期望收益为Vhn由公式3获得;当shn执行完动作后,网络拓扑完成生成;
其中:最终状态shn是因为水下传感器节点个数为n以及网络连通性需求的连通度是h,即拓扑控制中心需要按照拓扑控制预定顺序遍历h次网络中n个水下传感器节点:
其中公式3表示如下:
式中式中ahn是当前状态shn的一个动作;Ahn是当前状态shn的动作集;Tπ表示通过将已生成的网络拓扑以及对应的网络信道和传输信息输入到已有的网络模拟器中去计算获得的该网络拓扑对应的网络生命周期;
4)反向传播过程:将公式3的模拟奖励回传给根节点,并更新所经过的所有状态上的信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111121811.3A CN113923123B (zh) | 2021-09-24 | 2021-09-24 | 一种基于深度强化学习的水下无线传感器网络拓扑控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111121811.3A CN113923123B (zh) | 2021-09-24 | 2021-09-24 | 一种基于深度强化学习的水下无线传感器网络拓扑控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113923123A true CN113923123A (zh) | 2022-01-11 |
CN113923123B CN113923123B (zh) | 2023-06-09 |
Family
ID=79236223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111121811.3A Active CN113923123B (zh) | 2021-09-24 | 2021-09-24 | 一种基于深度强化学习的水下无线传感器网络拓扑控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113923123B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115001937A (zh) * | 2022-04-11 | 2022-09-02 | 北京邮电大学 | 面向智慧城市物联网的故障预测方法及装置 |
CN115529247A (zh) * | 2022-08-22 | 2022-12-27 | 天津大学 | 一种基于时变水声信道的传感器探测网络拓扑控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573303A (zh) * | 2018-04-25 | 2018-09-25 | 北京航空航天大学 | 一种基于改进强化学习的复杂网络局部破坏的自改进恢复策略 |
CN110807230A (zh) * | 2019-10-29 | 2020-02-18 | 天津大学 | 一种自主学习优化物联网拓扑结构鲁棒性的方法 |
WO2020040763A1 (en) * | 2018-08-23 | 2020-02-27 | Siemens Aktiengesellschaft | Real-time production scheduling with deep reinforcement learning and monte carlo tree search |
CN111935724A (zh) * | 2020-07-06 | 2020-11-13 | 天津大学 | 基于异步深度强化学习的无线传感器网络拓扑优化方法 |
CN112436971A (zh) * | 2020-11-25 | 2021-03-02 | 中国人民解放军军事科学院评估论证研究中心 | 基于蒙特卡洛树搜索的全域指控网络协作拓扑生成方法 |
-
2021
- 2021-09-24 CN CN202111121811.3A patent/CN113923123B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108573303A (zh) * | 2018-04-25 | 2018-09-25 | 北京航空航天大学 | 一种基于改进强化学习的复杂网络局部破坏的自改进恢复策略 |
WO2020040763A1 (en) * | 2018-08-23 | 2020-02-27 | Siemens Aktiengesellschaft | Real-time production scheduling with deep reinforcement learning and monte carlo tree search |
CN110807230A (zh) * | 2019-10-29 | 2020-02-18 | 天津大学 | 一种自主学习优化物联网拓扑结构鲁棒性的方法 |
CN111935724A (zh) * | 2020-07-06 | 2020-11-13 | 天津大学 | 基于异步深度强化学习的无线传感器网络拓扑优化方法 |
CN112436971A (zh) * | 2020-11-25 | 2021-03-02 | 中国人民解放军军事科学院评估论证研究中心 | 基于蒙特卡洛树搜索的全域指控网络协作拓扑生成方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115001937A (zh) * | 2022-04-11 | 2022-09-02 | 北京邮电大学 | 面向智慧城市物联网的故障预测方法及装置 |
CN115001937B (zh) * | 2022-04-11 | 2023-06-16 | 北京邮电大学 | 面向智慧城市物联网的故障预测方法及装置 |
CN115529247A (zh) * | 2022-08-22 | 2022-12-27 | 天津大学 | 一种基于时变水声信道的传感器探测网络拓扑控制方法 |
CN115529247B (zh) * | 2022-08-22 | 2024-03-26 | 天津大学 | 一种基于时变水声信道的传感器探测网络拓扑控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113923123B (zh) | 2023-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113923123A (zh) | 一种基于深度强化学习的水下无线传感器网络拓扑控制方法 | |
CN108075975B (zh) | 一种物联网环境中的路由传输路径的确定方法及确定系统 | |
Zhu et al. | A reinforcement-learning-based opportunistic routing protocol for energy-efficient and Void-Avoided UASNs | |
CN109889255B (zh) | 一种基于改进蜂群算法的卫星网络重构方法 | |
CN114423061B (zh) | 一种基于注意力机制和深度强化学习的无线路由优化方法 | |
CN111757266B (zh) | 基于太阳能供电型农业物联网的uav数据采集轨迹算法 | |
CN111132200B (zh) | 基于势博弈与刚性子图的三维水下网络拓扑控制方法 | |
CN114697229A (zh) | 一种分布式路由规划模型的构建方法及应用 | |
CN116527567A (zh) | 一种基于深度强化学习的智能网络路径优选方法与系统 | |
Mukherjee et al. | Ant colony optimization technique applied in network routing problem | |
Yang et al. | Deep reinforcement learning based wireless network optimization: A comparative study | |
CN106209618A (zh) | 一种提高智能配用电能效的通信混合组网方法及系统 | |
CN113411766B (zh) | 智慧物联网综合感知系统及方法 | |
CN116489712B (zh) | 一种基于深度强化学习的移动边缘计算任务卸载方法 | |
CN110740487A (zh) | 一种能量有效且避障的水下路由方法 | |
CN114301910A (zh) | 一种物联网环境下的云边协同计算任务卸载方法 | |
CN108632785B (zh) | 一种基于链路质量的蚁群自适应车联网路由选择方法 | |
Zhao et al. | A transmission-reliable topology control framework based on deep reinforcement learning for UWSNs | |
Singh et al. | Designing an energy efficient network using integration of KSOM, ANN and data fusion techniques | |
KR102308799B1 (ko) | 사물 인터넷 네트워크 환경에서 mac 계층 충돌 학습을 기초로 전달 경로를 선택하는 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
CN116419290B (zh) | 基于跨层设计联合深度q网络的水声通信能量优化方法 | |
CN115243212B (zh) | 一种基于auv辅助和改进跨层聚类的海洋数据采集方法 | |
CN115150335B (zh) | 一种基于深度强化学习的最优流量分割的方法和系统 | |
CN116471645A (zh) | 基于深度强化学习的无线传感网络路由算法的自适应选择方法 | |
CN113747536B (zh) | 一种移动环境下WSNs的QoS感知的多路径路由方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |