CN114051228B - 用于定向天线自组织网络的智能邻居发现方法及装置 - Google Patents
用于定向天线自组织网络的智能邻居发现方法及装置 Download PDFInfo
- Publication number
- CN114051228B CN114051228B CN202111209966.2A CN202111209966A CN114051228B CN 114051228 B CN114051228 B CN 114051228B CN 202111209966 A CN202111209966 A CN 202111209966A CN 114051228 B CN114051228 B CN 114051228B
- Authority
- CN
- China
- Prior art keywords
- sub
- time slot
- mode
- node
- conflict
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W8/00—Network data management
- H04W8/005—Discovery of network devices, e.g. terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W40/00—Communication routing or communication path finding
- H04W40/02—Communication route or path selection, e.g. power-based or shortest path routing
- H04W40/18—Communication route or path selection, e.g. power-based or shortest path routing based on predicted events
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/18—Self-organising networks, e.g. ad-hoc networks or sensor networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本申请公开了一种用于定向天线自组织网络的智能邻居发现方法及装置,其中,方法包括:利用定向天线的收发模式及扫描方式构建强化学习模型;根据强化学习模型中的Q值表,并采用∈‑greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向;根据节点的收发模式发送或侦听握手包,并基于握手包进行三步握手交互;通过节点检测交互过程中握手包的冲突,根据冲突信息及收发模式确定强化学习模型中的奖励值;根据奖励值和预设学习算法更新强化学习模型中的Q值表。本申请的实施例通过学习的方式,不断地对天线的扫描策略进行调整,能够自适应的避免扫描过程中发生的冲突,且在握手过程中没有冲突发生时,也能进行链路发现的加速,是定向天线自组织网络中快速高效的邻居发现方法,具有良好的应用前景。
Description
技术领域
本申请涉及通信技术领域,特别涉及一种用于定向天线自组织网络的智能邻居发现方法及装置。
背景技术
基于定向天线的移动自组织网络,相比于全向天线的网络,具有许多独特的优势。首先定向天线可有效提升空间复用性,提高网络的吞吐量;其次定向天线将能量集中在主瓣波束内,能有效提升通信距离;此外利用定向天线发送窄波束进行猝发通信,能有效提升抗干扰能力与隐蔽性。
邻居节点的发现是定向组网中的关键环节,节点之间在完成相互发现之后才能进行信息的传递,进而完成网络的组建。传统的邻居发现算法是基于扫描式的,节点随机选择收发模式并按预先设置的序列进行扫描,该方式在大规模密集型的网络下效率很低。在邻居发现过程中应用强化学习的主要思路为:基于扫描过程中成功或失败的经历进行学习,其目的是尽量避免扫描过程中的冲突,从而加速整个链路发现的过程。
发明内容
本申请提供一种用于定向天线自组织网络的智能邻居发现方法及装置,以解决相关技术中基于扫描式的邻居发现算法,节点随机选择收发模式并按预先设置的序列进行扫描,在大规模密集型的网络下效率较低等技术问题。
本申请第一方面实施例提供一种用于定向天线自组织网络的智能邻居发现方法,包括以下步骤:利用定向天线的收发模式及扫描方式构建强化学习模型;根据所述强化学习模型中的Q值表,并采用∈-greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向;根据所述节点的收发模式发送或侦听握手包,并基于所述握手包进行三步握手交互;通过节点检测交互过程中握手包的冲突,根据冲突信息及所述收发模式确定所述强化学习模型中的奖励值;根据所述奖励值和预设学习算法更新所述强化学习模型中的Q值表。
可选地,在本申请的一个实施例中,所述利用定向天线的收发模式及扫描方式构建强化学习模型,包括:控制所述定向天线按照扫描序列进行扫描,基于所述扫描序列的序列号进行所述强化学习模型中的状态建模;选取发送或接收模式以及与所述扫描序列中的指向信息,确定所述强化学习模型中的动作建模;基于发送模式、接收模式、与所述扫描序列同向信息和/或反向信息确定所述强化学习模型中的状态空间建模。
可选地,在本申请的一个实施例中,所述采用∈-greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向,包括:以1-∈的概率选取在当前状态下使Q值最大的动作,以∈的概率选取任意动作。
可选地,在本申请的一个实施例中,所述根据所述节点的收发模式发送或侦听握手包,并基于所述握手包进行三步握手交互,包括:
处于发送模式的节点在第一个子时隙发送带有本节点ID的握手包,并且在第二个子时隙进行侦听,其中,若在所述第二个子时隙正确收到其他节点的握手包,则在第三个子时隙进行回复确认握手包,若在所述第二个子时隙检测到冲突握手包,则在所述第三个子时隙进行回复冲突信息,若在所述第二个子时隙未收到数据包或收到冲突信息,则所述第三个子时隙不发送信息;处于接收模式的节点在所述第一个子时隙进行侦听,且在所述第一个子时隙正确收到所述其他节点的握手包,则在所述第二个子时隙进行回复,若在所述第一个子时隙检测到所述冲突握手包,则在所述第二个子时隙进行回复冲突信息,若所述第一个子时隙未收到所述数据包,则在所述第二个子时隙不发送信息;在所述第三个子时隙进行侦听。
可选地,在本申请的一个实施例中,所述根据冲突信息及所述收发模式确定所述强化学习模型中的奖励值,包括:若所述节点处于所述发送模式且检测到冲突,则奖励的取值为-1;若所述节点处于所述接收模式且检测到冲突,则奖励的取值为1;若所述节点成功进行链路发现且为所述发送模式,则奖励的取值为-0.5;若所述节点成功进行链路发现且为所述接收模式,则奖励的取值为0.5;若为其余情况下,则所述奖励的取值为0。
可选地,在本申请的一个实施例中,所述Q值表的更新公式为:
其中,s与a分别表示当前的状态与选取的动作,α为学习率,R表示奖励,λ表示奖励的折扣系数,s′与a′分别表示下一个状态与对应的动作。
本申请第二方面实施例提供一种用于定向天线自组织网络的智能邻居发现装置,包括:构建模块,用于利用定向天线的收发模式及扫描方式构建强化学习模型;动作选择模块,用于根据所述强化学习模型中的Q值表,并采用∈-greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向;握手包交互模块,用于根据所述节点的收发模式发送或侦听握手包,并基于所述握手包进行三步握手交互;奖励确定模块,用于通过节点检测交互过程中握手包的冲突,根据冲突信息及所述收发模式确定所述强化学习模型中的奖励值;学习更新模块,用于根据所述奖励值和预设学习算法更新所述强化学习模型中的Q值表。
可选地,在本申请的一个实施例中,所述构建模块,具体用于,控制所述定向天线按照扫描序列进行扫描,基于所述扫描序列的序列号进行所述强化学习模型中的状态建模;选取发送或接收模式以及与所述扫描序列中的指向信息,确定所述强化学习模型中的动作建模;基于发送模式、接收模式、与所述扫描序列同向信息和/或反向信息确定所述强化学习模型中的状态空间建模。
本申请第三方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的用于定向天线自组织网络的智能邻居发现方法。
本申请第四方面实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以用于实现如上述实施例所述的用于定向天线自组织网络的智能邻居发现方法。
本申请实施例的用于定向天线自组织网络的智能邻居发现方法及装置,通过将定向网络的邻居发现问题建模为马尔科夫决策过程,采用强化学习的算法进行决策优化;根据强化学习模型中的Q值表,采用∈-greedy算法选择节点的收发模式与扫描方向;根据节点选择的工作模式,进行三步握手的交互;检测交互过程中握手包的冲突,并根据是否冲突及节点的收发模式确定强化学习模型中的奖励;根据所获取的奖励值和学习算法,更新节点的Q值表。通过不断迭代更新对周围的坏境进行感知学习,采用∈-greedy方式能有效平衡探索与利用,能不断识别并避免握手过程中的冲突,在大规模密集型网络中可以极大地缩短邻居发现过程所用的时间,加速网络的建立。由此,解决了相关技术中基于扫描式的邻居发现算法,节点随机选择收发模式并按扫描序列进行扫描,在大规模密集型的网络下效率较低等技术问题。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本申请实施例提供的一种用于定向天线自组织网络的智能邻居发现方法的流程图;
图2为根据本申请实施例提供的一种模型状态空间与动作空间示意图;
图3为根据本申请实施例提供的一种节点扫描场景示意图;
图4为根据本申请实施例提供的一种三步握手流程图;
图5为根据本申请实施例提供的一种奖励反馈示意图;
图6为根据本申请实施例的用于定向天线自组织网络的智能邻居发现装置的示例图;
图7为申请实施例提供的电子设备的结构示意图。
附图标记说明:构建模块-100、动作选择模块-200、握手包交互模块-300、奖励确定模块-400、学习更新模块-500、存储器-701、处理器-702及通信接口-703。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
具体而言,图1为根据本申请实施例提供的一种用于定向天线自组织网络的智能邻居发现方法的流程图。
如图1所示,该用于定向天线自组织网络的智能邻居发现方法包括以下步骤:
在步骤S1中,利用定向天线的收发模式及扫描方式构建强化学习模型,并初始化模型参数。
在本申请的实施例中,利用定向天线的收发模式及扫描方式构建强化学习模型,包括:控制定向天线按照扫描序列进行扫描,基于扫描序列的序列号进行强化学习模型中的状态建模;选取发送或接收模式以及与扫描序列中的指向信息,确定强化学习模型中的动作建模;基于发送模式、接收模式、与扫描序列同向信息和/或反向信息确定强化学习模型中的状态空间建模。
具体地,天线按照扫描序列进行扫描,扫描序列规定了天线的指向并且扫描序列能够不重复地覆盖全部搜索空间。强化学习模型中的状态建模为扫描序列的序列号,状态空间的表示如下:
S={1,2,3,L,N}
其中S表示状态空间,N表示扫描序列的长度。
强化学习模型中的动作建模为选取发送或接收模式以及是否与扫描序列中的指向相反,这里的指向相反指的是天线指向与扫描序列中的指向相差π,公式表示为:
φ′=φ+π
其中φ′表示与扫描序列的指向相反,φ表示与扫描序列的指向相同。
强化学习模型中的动作空间由节点收发模式以及天线的指向确定,强化学习模型中的状态空间建模为以下四种组合,公式表示为:
A={(SEND,REVERSE),(SEND,SAME),(RECEIVE,REVERSE),(RECEIVE,SAME)}
其中A表示动作空间,SEND表示发送模式,RECEIVE表示接收模式,REVERSE表示与扫描序列反向,SAME表示与扫描序列同向。
进一步地,每个节点在本地存储一个大小为N*M的二维矩阵,代表Q值表。其中N为状态空间的大小,M为动作空间的大小。N的取值由扫描波束的大小确定,在二维空间中状态空间大小的计算公式为:
其中,θ为波束宽度。动作空间的大小M固定取4。初始化时将二维矩阵的所有元素置为0。
在步骤S2中,根据强化学习模型中的Q值表,并采用∈-greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向。
可以理解的是,在邻居发现的初始阶段,节点需要大量探索来获取周围节点的冲突信息,因此需要以较大的概率随机选取动作;而在邻居发现的末期,节点需要利用之前扫描获取的经验去找到难以发现的邻居,因此需要以较大的概率随机选择Q值最大的动作。
在本申请的实施例中,采用∈-greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向,包括:以1-∈的概率选取在当前状态下使Q值最大的动作,以∈的概率选取任意动作。
进一步地,∈的取值会随着扫描时间的增加而不断减小,公式表示为:
∈t=∈0-k·t
其中∈0为初始值,k为算法参数,t为扫描时间。
在步骤S3中,根据节点的收发模式发送或侦听握手包,并基于握手包进行三步握手交互。
在本申请的实施例中,根据节点的收发模式发送或侦听握手包,并基于握手包进行三步握手交互,包括:处于发送模式的节点在第一个子时隙发送带有本节点ID的握手包,并且在第二个子时隙进行侦听,其中,若在第二个子时隙正确收到其他节点的握手包,则在第三个子时隙进行回复确认握手包,若在第二个子时隙检测到冲突握手包,则在第三个子时隙进行回复冲突信息,若在第二个子时隙未收到数据包或收到冲突信息,则第三个子时隙不发送信息;处于接收模式的节点在第一个子时隙进行侦听,且在第一个子时隙正确收到其他节点的握手包,则在第二个子时隙进行回复,若在第一个子时隙检测到冲突握手包,则在第二个子时隙进行回复冲突信息,若第一个子时隙未收到数据包,则在第二个子时隙不发送信息;在第三个子时隙进行侦听。
具体地,通过三步握手,节点之间可以建立双向链路,从而为后续网络的时隙分配预留了协商通道。通过本发明的三步握手机制,处于发送模式或接收模式的节点均可有效感知冲突。
在步骤S4中,通过节点检测交互过程中握手包的冲突,根据冲突信息及收发模式确定强化学习模型中的奖励值。
检测交互过程中握手包的冲突,等价于节点侦听到数据包的冲突或接收到冲突信息。
在本申请的实施例中,根据冲突信息及收发模式确定强化学习模型中的奖励值,包括:若节点处于发送模式且检测到冲突,则奖励的取值为-1;若节点处于接收模式且检测到冲突,则奖励的取值为1;若节点成功进行链路发现且为发送模式,则奖励的取值为-0.5;若节点成功进行链路发现且为接收模式,则奖励的取值为0.5;若为其余情况下,则奖励的取值为0。
可以理解的是,奖励值的设定直接决定学习算法所优化的方向。该奖励值的设定使得节点在检测到冲突后,更倾向于选择接收模式。因为节点收到已发现邻居的握手包后会保持静默,处于接收模式会降低冲突的概率。
在步骤S5中,根据奖励值和预设学习算法更新强化学习模型中的Q值表。
每个扫描时隙交互完成握手包的交互后,均要根据奖励值进行Q值表的更新,具体公式为:
其中,s与a分别表示当前的状态与选取的动作,α为学习率,R表示奖励,λ表示奖励的折扣系数,s′与a′分别表示下一个状态与对应的动作。
本申请的实施例通过学习的方式,不断地对天线的扫描策略进行调整,能够自适应的避免扫描过程中发生的冲突。因为根据奖励的设置,节点会降低对已发现过邻居区域扫描的概率,并以更高的概率探索为发现过邻居的区域,因此即使握手过程中没有冲突发生,也能进行链路发现的加速。本申请的实施例是定向天线自组织网络中快速高效的邻居发现方法,具有良好的应用前景。
如图2所示,展示了扫描过程中的状态空间与动作空间。图中所示的搜索空间为二维平面,天线的波束宽度为45°,因此扫描序列的长度为8,状态空间的大小也为8。根据扫描序列,天线波束按顺时针的方向扫过整个二维空间。在每一个状态下,节点会从图示的四种动作中挑选一个执行。状态由1~8按递增顺序跳转,不断循环往复,直至完成整个链路发现过程。
如图3所示,展示了成功进行链路发现以及发生交互冲突时的情景示意。节点之间成功发现对方的条件为:一是需要满足天线指向对准,即两个节点的天线指向相差π;二是需要满足收发模式互补,即一个节点为发送模式,另一个节点为接收模式;三是满足没有其他节点的干扰,即为单发单收。而一发多收、一收多发以及多发多收等场景下,在三步握手的过程中均会发生冲突。
如图4所示,展示了三步握手的交互流程。图示的三步握手过程保证了链路的双向发现,为之后的时隙预约提供了便利。进一步地,通过冲突信息的回复,确保了收发双方均能得知交互中的冲突,为学习算法提供了全面的信息。
如图5所示,展示了一个具体场景下的奖励反馈过程。图中节点1与节点2成功发现了对方,处于发送模式的节点1获取的奖励为-0.5,节点2获取的奖励为0.5。该奖励驱使节点1以更大的概率选取其他动作,避免了重复发现节点2;而节点2以更大的概率维持原动作,帧听其他节点的握手包。图中节点3未与任何节点对准,因此获取的奖励为0。节点4、节点5以及节点6之间发生了冲突,节点4、节点5获取的奖励为-1,节点6获取的奖励为1,以便驱使节点避免冲突。
根据本申请实施例提出的用于定向天线自组织网络的智能邻居发现方法,通过将定向网络的邻居发现问题建模为马尔科夫决策过程,采用强化学习的算法进行决策优化;根据强化学习模型中的Q值表,采用∈-greedy算法选择节点的收发模式与扫描方向;根据节点选择的工作模式,进行三步握手的交互;检测交互过程中握手包的冲突,并根据是否冲突及节点的收发模式确定强化学习模型中的奖励;根据所获取的奖励值和学习算法,更新节点的Q值表。通过不断迭代更新对周围的坏境进行感知学习,采用∈-greedy方式能有效平衡探索与利用,能不断识别并避免握手过程中的冲突,在大规模密集型网络中可以极大地缩短邻居发现过程所用的时间,加速网络的建立。由此,解决了相关技术中基于扫描式的邻居发现算法,节点随机选择收发模式并按扫描序列进行扫描,在大规模密集型的网络下效率较低等技术问题。
其次参照附图描述根据本申请实施例提出的用于定向天线自组织网络的智能邻居发现装置。
图6为根据本申请实施例的用于定向天线自组织网络的智能邻居发现装置的示例图。
如图6所示,该用于定向天线自组织网络的智能邻居发现装置10包括:构建模块100、动作选择模块200、握手包交互模块300、奖励确定模块400和学习更新模块500。
其中,构建模块100,用于利用定向天线的收发模式及扫描方式构建强化学习模型。动作选择模块200,用于根据强化学习模型中的Q值表,并采用∈-greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向。握手包交互模块300,用于根据节点的收发模式发送或侦听握手包,并基于握手包进行三步握手交互。奖励确定模块400,用于通过节点检测交互过程中握手包的冲突,根据冲突信息及收发模式确定强化学习模型中的奖励值。学习更新模块500,用于根据奖励值和预设学习算法更新强化学习模型中的Q值表。
在本申请的一个实施例中,构建模块,具体用于,控制定向天线按照扫描序列进行扫描,基于扫描序列的序列号进行强化学习模型中的状态建模;选取发送或接收模式以及与扫描序列中的指向信息,确定强化学习模型中的动作建模;基于发送模式、接收模式、与扫描序列同向信息和/或反向信息确定强化学习模型中的状态空间建模。
在本申请的一个实施例中,动作选择模块,具体用于,以1-∈的概率选取在当前状态下使Q值最大的动作,以∈的概率选取任意动作。
在本申请的一个实施例中,握手包交互模块,具体用于,处于发送模式的节点在第一个子时隙发送带有本节点ID的握手包,并且在第二个子时隙进行侦听,其中,若在第二个子时隙正确收到其他节点的握手包,则在第三个子时隙进行回复确认握手包,若在第二个子时隙检测到冲突握手包,则在第三个子时隙进行回复冲突信息,若在第二个子时隙未收到数据包或收到冲突信息,则第三个子时隙不发送信息;处于接收模式的节点在第一个子时隙进行侦听,且在第一个子时隙正确收到其他节点的握手包,则在第二个子时隙进行回复,若在第一个子时隙检测到冲突握手包,则在第二个子时隙进行回复冲突信息,若第一个子时隙未收到数据包,则在第二个子时隙不发送信息;在第三个子时隙进行侦听。
可选地,在本申请的一个实施例中,奖励确定模块,具体用于,若节点处于发送模式且检测到冲突,则奖励的取值为-1;若节点处于接收模式且检测到冲突,则奖励的取值为1;若节点成功进行链路发现且为发送模式,则奖励的取值为-0.5;若节点成功进行链路发现且为接收模式,则奖励的取值为0.5;若为其余情况下,则奖励的取值为0。
可选地,在本申请的一个实施例中,Q值表的更新公式为:
其中,s与a分别表示当前的状态与选取的动作,α为学习率,R表示奖励,λ表示奖励的折扣系数,s′与a′分别表示下一个状态与对应的动作。
需要说明的是,前述对用于定向天线自组织网络的智能邻居发现方法实施例的解释说明也适用于该实施例的用于定向天线自组织网络的智能邻居发现装置,此处不再赘述。
根据本申请实施例提出的用于定向天线自组织网络的智能邻居发现装置,通过将定向网络的邻居发现问题建模为马尔科夫决策过程,采用强化学习的算法进行决策优化;根据强化学习模型中的Q值表,采用∈-greedy算法选择节点的收发模式与扫描方向;根据节点选择的工作模式,进行三步握手的交互;检测交互过程中握手包的冲突,并根据是否冲突及节点的收发模式确定强化学习模型中的奖励;根据所获取的奖励值和学习算法,更新节点的Q值表。通过不断迭代更新对周围的坏境进行感知学习,采用∈-greedy方式能有效平衡探索与利用,能不断识别并避免握手过程中的冲突,在大规模密集型网络中可以极大地缩短邻居发现过程所用的时间,加速网络的建立。由此,解决了相关技术中基于扫描式的邻居发现算法,节点随机选择收发模式并按扫描序列进行扫描,在大规模密集型的网络下效率较低等技术问题。
图7为本申请实施例提供的电子设备的结构示意图。该电子设备可以包括:
存储器701、处理器702及存储在存储器701上并可在处理器702上运行的计算机程序。
处理器702执行程序时实现上述实施例中提供的用于定向天线自组织网络的智能邻居发现方法。
进一步地,车辆还包括:
通信接口703,用于存储器701和处理器702之间的通信。
存储器701,用于存放可在处理器702上运行的计算机程序。
存储器701可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器701、处理器702和通信接口703独立实现,则通信接口703、存储器701和处理器702可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry Standard Architecture,简称为ISA)总线、外部设备互连(PeripheralComponent,简称为PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器701、处理器702及通信接口703,集成在一块芯片上实现,则存储器701、处理器702及通信接口703可以通过内部接口完成相互间的通信。
处理器702可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如上的用于定向天线自组织网络的智能邻居发现方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
Claims (6)
1.一种用于定向天线自组织网络的智能邻居发现方法,其特征在于,包括以下步骤:
利用定向天线的收发模式及扫描方式构建强化学习模型;
根据所述强化学习模型中的Q值表,并采用∈-greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向;
根据所述节点的收发模式发送或侦听握手包,并基于所述握手包进行三步握手交互;
通过节点检测交互过程中握手包的冲突,根据冲突信息及所述收发模式确定所述强化学习模型中的奖励值;以及
根据所述奖励值和预设学习算法更新所述强化学习模型中的Q值表;
所述利用定向天线的收发模式及扫描方式构建强化学习模型,包括:
控制所述定向天线按照扫描序列进行扫描,基于所述扫描序列的序列号进行所述强化学习模型中的状态建模;
选取发送或接收模式以及所述扫描序列中的指向信息,确定所述强化学习模型中的动作建模;
基于发送模式、接收模式、与所述扫描序列同向信息和/或反向信息确定所述强化学习模型中的状态空间建模;
所述根据所述节点的收发模式发送或侦听握手包,并基于所述握手包进行三步握手交互,包括:
处于发送模式的节点在第一个子时隙发送带有本节点ID的握手包,并且在第二个子时隙进行侦听,其中,若在所述第二个子时隙正确收到其他节点的握手包,则在第三个子时隙进行回复确认握手包,若在所述第二个子时隙检测到冲突握手包,则在所述第三个子时隙进行回复冲突信息,若在所述第二个子时隙未收到数据包或收到冲突信息,则所述第三个子时隙不发送信息;
处于接收模式的节点在所述第一个子时隙进行侦听,若在所述第一个子时隙正确收到所述其他节点的握手包,则在所述第二个子时隙进行回复,若在所述第一个子时隙检测到所述冲突握手包,则在所述第二个子时隙进行回复冲突信息,若所述第一个子时隙未收到所述数据包,则在所述第二个子时隙不发送信息;在所述第三个子时隙进行侦听;
所述Q值表的更新公式为:
其中,s与a分别表示当前的状态与选取的动作,α为学习率,R表示奖励,λ表示奖励的折扣系数,s′与a′分别表示下一个状态与对应的动作。
2.根据权利要求1所述的方法,其特征在于,所述采用∈-greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向,包括:
以1-∈的概率选取在当前状态下使Q值最大的动作,以∈的概率选取任意动作。
3.根据权利要求1所述的方法,其特征在于,所述根据冲突信息及所述收发模式确定所述强化学习模型中的奖励值,包括:
若所述节点处于所述发送模式且检测到冲突,则奖励的取值为-1;
若所述节点处于所述接收模式且检测到冲突,则奖励的取值为1;
若所述节点成功进行链路发现且为所述发送模式,则奖励的取值为-0.5;
若所述节点成功进行链路发现且为所述接收模式,则奖励的取值为0.5;
若为其余情况下,则所述奖励的取值为0。
4.一种用于定向天线自组织网络的智能邻居发现装置,其特征在于,包括:
构建模块,用于利用定向天线的收发模式及扫描方式构建强化学习模型;
动作选择模块,用于根据所述强化学习模型中的Q值表,并采用∈-greedy算法选择定向天线自组织网络中的节点的收发模式与扫描方向;
握手包交互模块,用于根据所述节点的收发模式发送或侦听握手包,并基于所述握手包进行三步握手交互;
奖励确定模块,用于通过节点检测交互过程中握手包的冲突,根据冲突信息及所述收发模式确定所述强化学习模型中的奖励值;以及
学习更新模块,用于根据所述奖励值和预设学习算法更新所述强化学习模型中的Q值表;
所述构建模块,具体用于,控制所述定向天线按照扫描序列进行扫描,基于所述扫描序列的序列号进行所述强化学习模型中的状态建模;
选取发送或接收模式以及所述扫描序列中的指向信息,确定所述强化学习模型中的动作建模;
基于发送模式、接收模式、与所述扫描序列同向信息和/或反向信息确定所述强化学习模型中的状态空间建模;
所述根据所述节点的收发模式发送或侦听握手包,并基于所述握手包进行三步握手交互,包括:
处于发送模式的节点在第一个子时隙发送带有本节点ID的握手包,并且在第二个子时隙进行侦听,其中,若在所述第二个子时隙正确收到其他节点的握手包,则在第三个子时隙进行回复确认握手包,若在所述第二个子时隙检测到冲突握手包,则在所述第三个子时隙进行回复冲突信息,若在所述第二个子时隙未收到数据包或收到冲突信息,则所述第三个子时隙不发送信息;
处于接收模式的节点在所述第一个子时隙进行侦听,若在所述第一个子时隙正确收到所述其他节点的握手包,则在所述第二个子时隙进行回复,若在所述第一个子时隙检测到所述冲突握手包,则在所述第二个子时隙进行回复冲突信息,若所述第一个子时隙未收到所述数据包,则在所述第二个子时隙不发送信息;在所述第三个子时隙进行侦听;
所述Q值表的更新公式为:
其中,s与a分别表示当前的状态与选取的动作,α为学习率,R表示奖励,λ表示奖励的折扣系数,s′与a′分别表示下一个状态与对应的动作。
5.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如权利要求1-3任一项所述的用于定向天线自组织网络的智能邻居发现方法。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以用于实现如权利要求1-3任一项所述的用于定向天线自组织网络的智能邻居发现方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111209966.2A CN114051228B (zh) | 2021-10-18 | 2021-10-18 | 用于定向天线自组织网络的智能邻居发现方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111209966.2A CN114051228B (zh) | 2021-10-18 | 2021-10-18 | 用于定向天线自组织网络的智能邻居发现方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114051228A CN114051228A (zh) | 2022-02-15 |
CN114051228B true CN114051228B (zh) | 2022-12-02 |
Family
ID=80205351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111209966.2A Active CN114051228B (zh) | 2021-10-18 | 2021-10-18 | 用于定向天线自组织网络的智能邻居发现方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114051228B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114845353A (zh) * | 2022-03-14 | 2022-08-02 | 中国人民解放军军事科学院战争研究院 | D2d网络中基于确定性估计器学习自动机的定向天线邻居发现方法 |
CN114938511B (zh) * | 2022-05-07 | 2023-07-28 | 河海大学常州校区 | 水声传感网中基于强化学习的自适应定向邻居发现方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9191304B1 (en) * | 2013-08-12 | 2015-11-17 | The United States Of America As Represented By The Secretary Of The Navy | Reinforcement learning-based distributed network routing method utilizing integrated tracking and selective sweeping |
CN113015152A (zh) * | 2021-02-21 | 2021-06-22 | 中国电子科技集团公司第二十二研究所 | 一种基于SARSA(λ)算法的定向天线自组网邻居发现方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112202848B (zh) * | 2020-09-15 | 2021-11-30 | 中国科学院计算技术研究所 | 基于深度强化学习的无人系统网络自适应路由方法和系统 |
-
2021
- 2021-10-18 CN CN202111209966.2A patent/CN114051228B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9191304B1 (en) * | 2013-08-12 | 2015-11-17 | The United States Of America As Represented By The Secretary Of The Navy | Reinforcement learning-based distributed network routing method utilizing integrated tracking and selective sweeping |
CN113015152A (zh) * | 2021-02-21 | 2021-06-22 | 中国电子科技集团公司第二十二研究所 | 一种基于SARSA(λ)算法的定向天线自组网邻居发现方法 |
Non-Patent Citations (1)
Title |
---|
一种基于定向天线的蜂群组网邻居发现算法;洪亮;罗鹏涛;燕熊;陈旿;《西北工业大学学报》;20200215;第38卷(第01期);第1-8页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114051228A (zh) | 2022-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114051228B (zh) | 用于定向天线自组织网络的智能邻居发现方法及装置 | |
KR102267320B1 (ko) | 다중-홉 릴레이 기반 지향성 무선 통신을 위한 방법 및 시스템 | |
JP2020517187A (ja) | 指向性送信を用いた無線メッシュネットワークにおける近隣ノードの発見 | |
CN103686611A (zh) | 一种基于定向天线的新型邻居发现方法 | |
CN105873007B (zh) | 可切换波束天线的无线自组织网络邻节点发现方法 | |
JP2019521538A (ja) | ショートアドレスをネットワーク装置に割り当てる技術 | |
Wang et al. | Directional neighbor discovery in mmWave wireless networks | |
Jiang et al. | Reinforcement-learning-based adaptive neighbor discovery algorithm for directional transmission-enabled internet of underwater things | |
CN115802442A (zh) | 一种定向自组网邻居发现方法 | |
El Khamlichi et al. | Adaptive directional neighbor discovery schemes in wireless networks | |
Mir et al. | Self-adaptive neighbor discovery in wireless sensor networks with sectored-antennas | |
CN109089296B (zh) | 基于动态tdma时隙分配技术的定向邻居发现方法 | |
CN114025342B (zh) | 无线网络邻居发现方法及装置 | |
CN107484128B (zh) | 基于rts/cts协议的通信方法及装置、计算机设备及存储介质 | |
CN113015152B (zh) | 一种基于SARSA(λ)算法的定向天线自组网邻居发现方法 | |
Constante et al. | Enhanced association mechanism for IEEE 802.15. 4 networks | |
Su et al. | A robust deafness-free MAC protocol for directional antennas in ad hoc networks | |
Gammarano et al. | Reducing neighbor discovery time in sensor networks with directional antennas using dynamic contention resolution | |
CN112787710A (zh) | 基于回溯天线的无人机集群多信道定向组网方法和装置 | |
Khatibi et al. | Quorum-based pure directional neighbor discovery in self-organized ad hoc networks | |
CN113596807B (zh) | 一种自适应时隙的邻节点发现方法 | |
Sun et al. | MAB-based 3-way neighbor discovery for wireless networks using directional antennas | |
CN115052280B (zh) | 一种无线自组织网络邻节点发现方法 | |
Wang | Power control, neighbor discovery, and backup scheme for emerging wireless networks | |
Lal et al. | Localized transmission scheduling for spatial multiplexing using smart antennas in wireless adhoc networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |