CN111770019B - 基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法 - Google Patents
基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法 Download PDFInfo
- Publication number
- CN111770019B CN111770019B CN202010403396.XA CN202010403396A CN111770019B CN 111770019 B CN111770019 B CN 111770019B CN 202010403396 A CN202010403396 A CN 202010403396A CN 111770019 B CN111770019 B CN 111770019B
- Authority
- CN
- China
- Prior art keywords
- node
- path
- learning
- network
- dijkstra algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000003287 optical effect Effects 0.000 title claims abstract description 13
- 235000008694 Humulus lupulus Nutrition 0.000 claims abstract description 14
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 238000003780 insertion Methods 0.000 claims description 14
- 230000003044 adaptive effect Effects 0.000 claims description 13
- 230000037431 insertion Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 10
- 239000004576 sand Substances 0.000 claims description 3
- 230000007547 defect Effects 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/02—Topology update or discovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/12—Discovery or management of network topologies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/12—Shortest path evaluation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/12—Shortest path evaluation
- H04L45/122—Shortest path evaluation by minimising distances, e.g. by selecting a route with minimum of number of hops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q11/00—Selecting arrangements for multiplex systems
- H04Q11/0001—Selecting arrangements for multiplex systems using optical switching
- H04Q11/0005—Switch and router aspects
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及一种基于Dijkstra算法的Q‑learning光片上网络自适应路由规划方法,包括:S1:构建网络模型,并定义网络模型参数;S2:根据Dijkstra算法和网络模型,构建每个节点到其他节点的最短路径树,同时按照预设值在各节点存储若干条该节点到目标节点vd的最短路径,并获取源节点vs到目标节点vd的最短路径的路由跳数h(vs,vd);S3:根据Q‑learning算法,采用基于ε‑贪婪策略的链路选择机制进行路径规划,得到源节点vs到目标节点vd的若干条规划路径,获取规划路径的奖励值,规划路径的路由跳数不超过最短路径的路由跳数h(vs,vd);S4:根据规划路径的奖励值,得到最佳路径。本发明的方法克服了Dijkstra算法每个目标点只能产生一条最短路径的缺点。
Description
技术领域
本发明属于动态路由规划技术领域,具体涉及一种基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法。
背景技术
随着数据流量的指数增长和智能设备的快速发展,网络越来越复杂,也变得越来越多样化,需要考虑更多的因素,包括稳定性,安全,带宽,时延,负载等。现在芯片多处理器能力不断增强,片上通信效率对整体性能至关重要。在整个信息的传送过程中,中间的路由器需要根据当前的状态来选择下一跳的路由器。然而,从整体和长期来看,全局信息的缺乏使得所选择的下一跳转发节点往往未必是最佳的,所以人们更关注使用强化学习来解决实时性、动态性的路由问题。
传统的路由方法有Dijkstra(迪克斯特拉)算法和Bellman-Ford(贝尔曼-福特)算法等。Dijkstra算法是一种寻找最短路径的著名算法,它能快速给出最短路径,但它只能给每个目标点提供一条最短路径,不能提供其他可替代的最短路径,而且它只适用于非负权重的规划。相比Dijkstra算法,Bellman-Ford算法支持存在负权重的情况,并且代码实现相对简单,但是Bellman-Ford算法的时间复杂度较高,收敛速度低于Dijkstra算法,而且Bellman-Ford算法要求大量的信息传递,尤其是在遇到负权重时,需要多次迭代。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法。本发明要解决的技术问题通过以下技术方案实现:
本发明提供了一种基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,包括:
S1:构建网络模型,并定义网络模型参数;
S2:根据Dijkstra算法和所述网络模型,构建每个节点到其他节点的最短路径树,同时按照预设值在各节点存储若干条该节点到目标节点vd的最短路径,并获取源节点vs到目标节点vd的最短路径的路由跳数h(vs,vd);
S3:根据Q-learning算法,采用基于ε-贪婪策略的链路选择机制进行路径规划,得到所述源节点vs到所述目标节点vd的若干条规划路径,获取所述规划路径的奖励值,所述规划路径的路由跳数不超过所述最短路径的路由跳数h(vs,vd);
S4:根据所述规划路径的奖励值,得到最佳路径。
在本发明的一个实施例中,所述网络模型参数包括链路使用次数、排队时延和插入损耗。
在本发明的一个实施例中,根据Dijkstra算法和所述网络模型,构建每个节点到其他节点的最短路径树,包括:
步骤a:获取当前网络拓扑信息;
步骤b:初始化已确定最短路径的顶点集合N和权重De(v),
N={vs},
其中,h(vs,v)表示源节点vs和节点v之间的路由跳数;
步骤c:选取De(w)=min(De(v)),其中节点v和节点w不属于所述已确定最短路径的顶点集合N,则更新所述已确定最短路径的顶点集合N和所述权重De(v),其中,
N={N,w},
步骤d:重复步骤c,直到所有节点都在所述已确定最短路径的顶点集合N中。
在本发明的一个实施例中,源节点vs到目标节点vd的最短路径的路由跳数h(vs,vd)=De(vd),vd表示目标节点。
在本发明的一个实施例中,所述步骤a包括:
根据所述网络模型,获取每个节点的链路连接信息分组,每个节点将其链路连接信息分组发送至其他节点,同时存储其他节点发送的所述链路连接信息分组,组成所述当前网络拓扑信息,其中,所述链路连接信息分组包括:节点的网络地址、相邻节点的网络地址以及节点与相邻节点之间的连接信息。
在本发明的一个实施例中,根据Q-learning算法,采用基于ε-贪婪策略的链路选择机制进行路径规划,得到源节点vs到所述目标节点vd的若干条规划路径,包括:
步骤1:初始化Q-learning学习参数以及Q值,所述Q值为Q(vt,linkt),表示第t时刻节点vt的输出数据链路linkt;
步骤2:根据所述Q值,基于所述ε-贪婪策略选择下一节点vt+1,并获取选择该节点的奖励函数rt+1;
步骤3:根据选择的节点vt+1,更新所述Q值,判断节点vt+1是否为所述目标节点vd,
若是则结束本轮学习,得到一条所述规划路径;
若不是,则令计数变量Count=Count+1,判断计数变量Count是否小于所述最短路径的路由跳数h(vs,vd),若是,则重复步骤2-步骤3;若不是,则结束本轮学习;
步骤4:根据预设的学习轮次得到若干条所述规划路径。
在本发明的一个实施例中,所述Q-learning学习参数包括:学习轮次q_n、学习步长α、折扣系数γ和ε-贪婪策略概率。
在本发明的一个实施例中,初始化Q值包括:
根据存储的所述若干条最短路径,设置所述最短路径中节点对应链路的Q值为正数,其余未在所述最短路径中节点对应链路的Q值为零。
在本发明的一个实施例中,所述S4包括:判断若干条所述规划路径的奖励值的大小,最大奖励值对应的所述规划路径为最佳路径。
在本发明的一个实施例中,所述规划路径的奖励值为路径规划过程中选择节点对应的奖励函数rt+1的总和。
与现有技术相比,本发明的有益效果在于:
1、本发明的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,首先根据网络模型,使用Dijkstra算法计算从源节点vs到目标节点vd的最短路径,并获得该最短路径的路由跳数h(vs,vd),其次使用Dijkstra算法计算的最短路径的路由跳数h(vs,vd)限制Q-learning算法设计,采用基于ε-贪婪策略的链路选择机制,生成规划路径,最后从若干条规划路径中得到最佳路径。该方法克服了缺乏未知网络环境的先验知识的缺点,基于强化学习Q-learning算法,扩大算法的适用范围,也克服了Dijkstra算法每个目标点只能产生一条最短路径的缺点,使用Q-learning算法寻找其他替代最短路径,使自动规划路径更可控。
2、本发明的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,相较于单一的Q-learning算法,寻找最短路径的速度更快,此外,采用迭代的方法,可以找到最佳路径,不必在乎ε-贪婪策略造成的收敛结果不稳定现象。
3、本发明的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,具有普适性,适合用于不同类型网络和路由器。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1是本发明实施例提供的一种基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法的流程图;
图2是本发明实施例提供的一种Dijkstra算法的系统的流程图;
图3是本发明实施例提供的一种Dijkstra算法的具体的流程图;
图4是本发明实施例提供的一种Q-learning算法的系统的流程图;
图5是本发明实施例提供的一种Q-learning算法的具体的流程图;
图6是本发明实施例提供的一种奖励函数的流程图。
具体实施方式
为了进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及具体实施方式,对依据本发明提出的一种基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法进行详细说明。
有关本发明的前述及其他技术内容、特点及功效,在以下配合附图的具体实施方式详细说明中即可清楚地呈现。通过具体实施方式的说明,可对本发明为达成预定目的所采取的技术手段及功效进行更加深入且具体地了解,然而所附附图仅是提供参考与说明之用,并非用来对本发明的技术方案加以限制。
在实际情况中,大多数情况下,由于对网络缺乏先验知识,路由规划难点是了解当前行动将如何影响未来的奖励,即反馈。Q-learning(Q学习)算法很好地解决了这个问题,它基于马尔科夫链,可以实现自主学习,在t时刻,其总的反馈定义为Gt=rt+1+γrt+2+γ2rt+3+.......,并且未来反馈rt+n随着时间间隔n的增加对Gt的影响越来越小。
基于Q-learning的光片上网络自适应性路由可以预测所有可用路径中的最佳路径,具有很好的路径分配成功率。但是该方法存在两个缺点,一是采用ε-贪婪算法进行探索,即使过程中不断优化结果,直至最后寻到全局最优解仍然存在多余的探索,结果无法稳定在最优解;二是时间复杂度较高,收敛速度慢。
实施例一
基于N×N mesh网络和Cygnus路由器对本实施例的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法进行具体说明,请参见图1,图1是本发明实施例提供的一种基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法的流程图。如图所示,本发明的方法包括:
S1:构建网络模型,并定义网络模型参数;
具体地,在本实施例中,网络用加权有向图G(V,E)表示,其中,V表示路由器节点集,E表示路由器节点双向数据链路集。基于N×N mesh网络构建坐标系和五输入五输出Cygnus路由器,每个节点可以使用坐标(x,y)标识。路径定义为有序点集R(v0,vn)={v0,v1,...,vn}。其中对任意R中的元素vi,i<=n,vi∈V,vi在全局路径上,位于数据流前方。需要考虑的因素包括最短路径,路径均衡,排队时延,通信路径的插入损耗,使用权重的方法衡量各个考虑因素对选取数据链路的影响,可以给出规划路径时考虑因素的优先级,设各考虑因素优先级为:最先考虑最短路径,其次路径均衡,最后排队时延、通信路径的插入损耗处于同一优先级。网络模型参数包括链路使用次数、排队时延和插入损耗。其中,
路径均衡主要取决于节点vt处链路使用次数H(vt,:),表示从节点vt分别到所有相邻节点之间的链路使用次数表。采用最小选择法选择节点vt的下一节点vt+1,节点vt与节点vt+1之间的链路使用次数H(vt,vt+1)=min(H(vt,:))。
排队时延主要取决于该路由器内部微环谐振器的使用情况,如果有数据包正在使用微环谐振器MR1,则希望MR1不在相同时间内使用,否则会产生排队时延。采用最小选择法选择节点vt的下一节点vt+1,节点vt与节点vt+1之间的排队时延D(vt,vt+1)=min(D(vt,:))。
通信路径中某一节点vi内部传输路径的插入损耗Insert_lossi为,Insert_lossi=B_n×Lbending+C_n×Lcrossing+D_n×Ldrop+T_n×Lthrough(1),
其中,Lbending表示波导转弯的损耗参数,Lcrossing表示波导交叉的损耗参数,Ldrop表示微环谐振器处于ON状态的损耗参数,Lthrough表示微环谐振器处于OFF状态的损耗参数,B_n,C_n,D_n,T_n分别代表通信路径中节点vi的内部传输路径波导转弯,波导交叉,处于ON状态的微环谐振器,处于OFF状态的微环谐振器的数目。
一条通信路径的插入损耗Insert_loss_sum为,
S2:根据Dijkstra算法和所述网络模型,构建每个节点到其他节点的最短路径树,同时按照预设值在各节点存储若干条该节点到目标节点vd的最短路径,并获取源节点vs到目标节点vd的最短路径的路由跳数h(vs,vd);
请结合参见图2和图3,图2是本发明实施例提供的一种Dijkstra算法的系统的流程图;图3是本发明实施例提供的一种Dijkstra算法的具体的流程图。如图所示,根据Dijkstra算法和所述网络模型,构建每个节点到其他节点的最短路径树,包括:
步骤a:获取当前网络拓扑信息;
具体地,根据所述网络模型,获取每个节点的链路连接信息分组,每个节点将其链路连接信息分组发送至其他节点,同时存储其他节点发送的所述链路连接信息分组,组成所述当前网络拓扑信息。其中,所述链路连接信息分组包括:节点的网络地址、相邻节点的网络地址以及节点与相邻节点之间的连接信息,节点与相邻节点之间的连接信息也就是两个节点是否直连。
步骤b:初始化已确定最短路径的顶点集合N和权重De(v),
N={vs} (3),
其中,h(vs,v)表示源节点vs和节点v之间的路由跳数;
步骤c:选取De(w)=min(De(v)),其中节点v和节点w不属于所述已确定最短路径的顶点集合N,则更新所述已确定最短路径的顶点集合N和所述权重De(v),其中,
N={N,w} (5),
步骤d:重复步骤c,直到所有节点都在所述已确定最短路径的顶点集合N中。
在本实施例中,在构造最短路径树过程中,需要在各节点存储若干条该节点到目标节点vd的最短路径,存储的最短路径数目根据实际情况设定,同时获取源节点vs到目标节点vd的最短路径的路由跳数h(vs,vd),其中,h(vs,vd)=De(vd),vd表示目标节点。
需要说明的是,在Dijkstra算法中,所有节点都存储有当前网络拓扑信息,在每个节点内部使用Dijkstra算法构造一颗最短路径树,并将规划好的路径填入路由表之中。如果网络拓扑发生变化,增加或改变相应的链路连接信息分组,再发送给其他节点,重新更新节点存储的网络拓扑信息,使用Dijkstra算法再次规划路径即可。
利用Dijkstra算法得到源节点vs到目标节点vd的最短路径,通过获取源节点vs到目标节点vd的最短路径的路由跳数h(vs,vd),限制设计Q-learning算法。
S3:根据Q-learning算法,采用基于ε-贪婪策略的链路选择机制进行路径规划,得到所述源节点vs到所述目标节点vd的若干条规划路径,获取所述规划路径的奖励值,所述规划路径的路由跳数不超过所述最短路径的路由跳数h(vs,vd);
请参见图4和图5,图4是本发明实施例提供的一种Q-learning算法的系统的流程图;图5是本发明实施例提供的一种Q-learning算法的具体的流程图。如图所示,根据Q-learning算法,采用基于ε-贪婪策略的链路选择机制进行路径规划,得到源节点vs到所述目标节点vd的若干条规划路径,包括:
步骤1:初始化Q-learning学习参数以及Q值,所述Q值为Q(vt,linkt),表示第t时刻节点vt的输出数据链路linkt;
具体地,所述Q-learning学习参数包括:学习轮次q_n、学习步长α、折扣系数γ和ε-贪婪策略概率。在本实施例中,ε-贪婪策略概率的概率ε取值为0.1。
初始化Q值包括:根据存储的所述若干条最短路径,设置所述最短路径中节点对应链路的Q值为正数,例如为1,2,3........等较小的正数,其余未在所述最短路径中节点对应链路的Q值为零。
步骤2:根据所述Q值,基于所述ε-贪婪策略选择下一节点vt+1,并获取选择该节点的奖励函数rt+1;
具体地,利用当前的Q值,得到策略π,根据策略π和节点vt,选择数据链路,即节点vt根据当前Q值选择下一节点vt+1。在节点vt处,不同数据链路对应的Q值一般不同,通过比较,可以得出不同程度的选取意向。链路选择的机制采用基于ε-贪婪策略,也就是,以1-ε的概率基于贪婪策略选取,以ε的概率随机选取,公式如下:
奖励函数rt+1是当前节点vt选择下一节点vt+1而产生的,使用权重法可以表现不同考虑因素在对链路的选择上产生的影响,所述考虑因素也就是步骤S1中的最短路径,路径均衡,排队时延以及通信路径的插入损耗。在本实施例中,根据考虑因素,执行当前节点选择的奖励函数rt+1如下:
rt+1=a1r1+a2r2+a3r3+a4r4 (8),
其中,r1表示当前路径均衡的奖励数值,r2表示当前排队时延的奖励数值,r3表示当前插入损耗的奖励数值,r4表示到达目标节点vd的奖励数值,a1,a2,a3,a4分别表示当前路径均衡、排队时延、插入损耗和到达目标节点vd的奖励系数。根据优先级,a1>a2=a3。
请参见图6,图6是本发明实施例提供的一种奖励函数的流程图。如图所示,本实施例的奖励数值的计量标准如下:
路径均衡:如果H(vt,vt+1)不等于min(H(vt,:)),则将当前链路选择视为不利于路径均衡的选择,r1取一个负值,否则,r1=0。
排队时延:如果有别的数据包正在使用微环谐振器MR1,而当前选择路径使用MR1,则r2取一个负值,反之,r2=0。
插入损耗:插入损耗的奖励数值r3等于-Insert_lossi。
如果节点vt+1为目标节点,则到达目标节点vd的奖励数值r4取正数,反之,r4=0。
步骤3:根据选择的节点vt+1,更新所述Q值,判断节点vt+1是否为所述目标节点vd,
若是则结束本轮学习,得到一条所述规划路径;
若不是,则令计数变量Count=Count+1,判断计数变量Count是否小于所述最短路径的路由跳数h(vs,vd),若是,则重复步骤2-步骤3;若不是,则结束本轮学习;
具体地,在本实施例中,Q值更新公式如下:
其中,α表示学习步长,反映了Q-learning算法的收敛快慢程度;γ表示折扣系数,反映未来反馈对当前选择的影响程度。
步骤4:根据预设的学习轮次得到若干条所述规划路径。
在本实施例中,采取基于ε-贪婪策略的链路选择机制,能够避免Q-learning算法收敛在路由规划的局部最优点,选取到路由规划的全局最优点。使用最短路径的路由跳数h(vs,vd)限制Q-learning算法,能够加快收敛速度。根据网络的变化情况,Q-learning算法通过网络节点之间的交互,能够实时地调整路由规划。
S4:根据所述规划路径的奖励值,得到最佳路径。
具体地,判断若干条所述规划路径的奖励值的大小,最大奖励值对应的所述规划路径为最佳路径。所述规划路径的奖励值为路径规划过程中选择节点对应的奖励函数rt+1的总和。
由于Q-learning算法的最终收敛结果并不一定是最佳路径,所以根据规划路径对应的每一轮总奖励值,不断迭代找到最大奖励值,最大奖励值对应规划路径即为最佳路径,采取该迭代方法可以避免基于ε-贪婪策略的链路选择机制带来的收敛不稳定问题。
值得说明的是,在迭代寻找最佳路径的过程中,除去最大奖励值对应的最佳路径,剩余规划路径可根据奖励值大小的不同依次作为源节点vs到目标节点vd的最佳替代路径。也就是,最大奖励值对应的规划路径为最佳路径,第二大奖励值对应的规划路径为第一最佳替代路径,第三大奖励值对应的规划路径为第二最佳替代路径,依次类推。
本实施例的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,首先根据网络模型,使用Dijkstra算法计算最短路径,并获得从源节点vs到目标节点vd的最短路径,并获得该最短路径的路由跳数h(vs,vd),其次使用Dijkstra算法计算的最短路径的路由跳数h(vs,vd)限制条件限制Q-learning算法设计,采用基于ε-贪婪策略的链路选择机制,生成规划路径,最后从若干条规划路径中得到最佳路径。该方法克服了缺乏未知网络环境的先验知识的缺点,基于强化学习Q-learning算法,扩大算法的适用范围,也克服了Dijkstra算法每个目标点只能产生一条最短路径的缺点,使用Q-learning算法寻找其他替代最短路径,使自动规划路径更可控。相较于单一的Q-learning算法,寻找最短路径的速度更快,此外,采用迭代的方法,可以找到最佳路径,不必在乎ε-贪婪策略造成的收敛结果不稳定现象。
另外,本实施例的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,具有普适性,适合用于不同类型网络和路由器。如果用于不同网络和路由器,需要修改标识网络路由器的方法,和探测网络中各个路由器内部不同传输路径对应的插入损耗,以及路由器与其他路由器的连接情况。对于网格、带环网格(torus)、超立方等网络拓扑结构,建立XY轴或XYZ轴,以坐标作为标识方法;对于环形网络,可以建立球坐标系,以坐标为标识;对于不规则的网络拓扑,使用不同的数值标识不同的路由器。对于不同类型的路由器,例如Crossbar、Cygnus、Crux路由器,只需探测网络中各个路由器内部不同传输路径对应的插入损耗,以及路由器与其他路由器的连接情况。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (8)
1.一种基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,其特征在于,包括:
S1:构建网络模型,并定义网络模型参数;
S2:根据Dijkstra算法和所述网络模型,构建每个节点到其他节点的最短路径树,同时按照预设值在各节点存储若干条该节点到目标节点vd的最短路径,并获取源节点vs到目标节点vd的最短路径的路由跳数h(vs,vd);
S3:根据Q-learning算法,采用基于ε-贪婪策略的链路选择机制进行路径规划,得到所述源节点vs到所述目标节点vd的若干条规划路径,获取所述规划路径的奖励值,所述规划路径的路由跳数不超过所述最短路径的路由跳数h(vs,vd);
S4:根据所述规划路径的奖励值,得到最佳路径;
其中,根据Dijkstra算法和所述网络模型,构建每个节点到其他节点的最短路径树,包括:
步骤a:获取当前网络拓扑信息;
步骤b:初始化已确定最短路径的顶点集合N和权重De(v),
N={vs},
其中,h(vs,v)表示源节点vs和节点v之间的路由跳数;
步骤c:选取De(w)=min(De(v)),其中节点v和节点w不属于所述已确定最短路径的顶点集合N,则更新所述已确定最短路径的顶点集合N和所述权重De(v),其中,
N={N,w},
步骤d:重复步骤c,直到所有节点都在所述已确定最短路径的顶点集合N中;
根据Q-learning算法,采用基于ε-贪婪策略的链路选择机制进行路径规划,得到源节点vs到所述目标节点vd的若干条规划路径,包括:
步骤1:初始化Q-learning学习参数以及Q值,所述Q值为Q(vt,linkt),表示第t时刻节点vt的输出数据链路linkt;
步骤2:根据所述Q值,基于所述ε-贪婪策略选择下一节点vt+1,并获取选择该节点的奖励函数rt+1;
步骤3:根据选择的节点vt+1,更新所述Q值,判断节点vt+1是否为所述目标节点vd,
若是则结束本轮学习,得到一条所述规划路径;
若不是,则令计数变量Count=Count+1,判断计数变量Count是否小于所述最短路径的路由跳数h(vs,vd),若是,则重复步骤2-步骤3;若不是,则结束本轮学习;
步骤4:根据预设的学习轮次得到若干条所述规划路径。
2.根据权利要求1所述的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,其特征在于,所述网络模型参数包括链路使用次数、排队时延和插入损耗。
3.根据权利要求1所述的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,其特征在于,源节点vs到目标节点vd的最短路径的路由跳数h(vs,vd)=De(vd),vd表示目标节点。
4.根据权利要求1所述的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,其特征在于,所述步骤a包括:
根据所述网络模型,获取每个节点的链路连接信息分组,每个节点将其链路连接信息分组发送至其他节点,同时存储其他节点发送的所述链路连接信息分组,组成所述当前网络拓扑信息,其中,所述链路连接信息分组包括:节点的网络地址、相邻节点的网络地址以及节点与相邻节点之间的连接信息。
5.根据权利要求1所述的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,其特征在于,所述Q-learning学习参数包括:学习轮次q_n、学习步长α、折扣系数γ和ε-贪婪策略概率。
6.根据权利要求1所述的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,其特征在于,初始化Q值包括:
根据存储的所述若干条最短路径,设置所述最短路径中节点对应链路的Q值为正数,其余未在所述最短路径中节点对应链路的Q值为零。
7.根据权利要求1所述的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,其特征在于,所述S4包括:判断若干条所述规划路径的奖励值的大小,最大奖励值对应的所述规划路径为最佳路径。
8.根据权利要求7所述的基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法,其特征在于,所述规划路径的奖励值为路径规划过程中选择节点对应的奖励函数rt+1的总和。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010403396.XA CN111770019B (zh) | 2020-05-13 | 2020-05-13 | 基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010403396.XA CN111770019B (zh) | 2020-05-13 | 2020-05-13 | 基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111770019A CN111770019A (zh) | 2020-10-13 |
CN111770019B true CN111770019B (zh) | 2021-06-15 |
Family
ID=72719090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010403396.XA Active CN111770019B (zh) | 2020-05-13 | 2020-05-13 | 基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111770019B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220044092A1 (en) | 2020-08-06 | 2022-02-10 | Celestial Ai Inc. | Coherent photonic computing architectures |
CN112671631B (zh) * | 2020-12-15 | 2022-03-04 | 湖北工业大学 | 一种分组传送网的优化方法和系统 |
CN114698067B (zh) * | 2020-12-25 | 2024-04-26 | 宁波泽联科技有限公司 | 分布式网络中节点路由信息的配置方法、路由方法及应用 |
CN112968834B (zh) * | 2021-02-02 | 2022-05-24 | 浙江工商大学 | 一种基于网络特征的强化学习下的sdn路由收敛方法 |
CN113079093B (zh) * | 2021-04-12 | 2022-03-15 | 合肥工业大学 | 一种基于层次化Q-routing规划的路由方法 |
CN113507412B (zh) * | 2021-07-08 | 2022-04-19 | 中国人民解放军国防科技大学 | 网络互联中的SRv6路由器渐进部署方法、系统和存储介质 |
CN113612692B (zh) * | 2021-08-11 | 2022-06-07 | 西安电子科技大学 | 基于dqn算法的集中式光片上网络自适应路由规划方法 |
CN114070773B (zh) * | 2021-10-13 | 2023-04-25 | 杭州电子科技大学 | 一种基于最短路径长度的空间网络路由策略 |
CN114598946B (zh) * | 2022-01-24 | 2023-02-10 | 西安电子科技大学 | 一种基于模糊逻辑的片上光网络自适应路由规划方法 |
WO2023177848A1 (en) | 2022-03-18 | 2023-09-21 | Celestial Al Inc. | Optical multi-die interconnect bridge (omib) |
CN115022940A (zh) * | 2022-07-22 | 2022-09-06 | 河南大学 | 基于Q-learning的改进动态生成树路由算法 |
CN115883442A (zh) * | 2022-11-29 | 2023-03-31 | 中国工商银行股份有限公司 | 数据传输路径的确定方法、装置及电子设备 |
CN116074661B (zh) * | 2022-12-22 | 2023-08-22 | 北京邮电大学 | 基于q学习的自适应路由方法及相关设备 |
CN118449962B (zh) * | 2024-07-08 | 2024-09-20 | 深圳市迈迪杰电子科技有限公司 | 一种微型计算机的数据交互方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816115A (zh) * | 2019-01-07 | 2019-05-28 | 南京航空航天大学 | 一种基于改进Q-learning算法的最短路径问题的解决方法 |
CN110730486A (zh) * | 2019-09-09 | 2020-01-24 | 南京理工大学 | 基于Q-Learning算法获取无线体域网最优路径的方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10136250B2 (en) * | 2015-09-02 | 2018-11-20 | Estimote Polska Sp. Z O. O. | System and method for lower power data routing |
US10142909B2 (en) * | 2015-10-13 | 2018-11-27 | The Board Of Trustees Of The University Of Alabama | Artificial intelligence-augmented, ripple-diamond-chain shaped rateless routing in wireless mesh networks with multi-beam directional antennas |
EP3637256A1 (en) * | 2018-10-12 | 2020-04-15 | IMEC vzw | Exploring an unexplored domain by parallel reinforcement |
CN109361601B (zh) * | 2018-10-31 | 2021-03-30 | 浙江工商大学 | 一种基于强化学习的sdn路由规划方法 |
-
2020
- 2020-05-13 CN CN202010403396.XA patent/CN111770019B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816115A (zh) * | 2019-01-07 | 2019-05-28 | 南京航空航天大学 | 一种基于改进Q-learning算法的最短路径问题的解决方法 |
CN110730486A (zh) * | 2019-09-09 | 2020-01-24 | 南京理工大学 | 基于Q-Learning算法获取无线体域网最优路径的方法 |
Non-Patent Citations (3)
Title |
---|
《Congestion prevention mechanism based on Q-leaning for efficient routing in SDN》;Seonhyeok Kim 等;《2016 International Conference on Information Networking (ICOIN)》;20161231;全文 * |
《电力通信业务路由规划算法的研究与设计》;薛俏;《中国优秀硕士学位论文全文数据库》;20190930;全文 * |
《面向多AGV系统的路径规划及监控技术研究》;赵雨亭;《中国优秀硕士学位论文全文库》;20190519;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111770019A (zh) | 2020-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111770019B (zh) | 基于Dijkstra算法的Q-learning光片上网络自适应路由规划方法 | |
JP5276220B2 (ja) | バス制御装置およびバス制御装置に指示を出力する制御装置 | |
CN102158417A (zh) | 实现多约束QoS路由选择的优化方法及装置 | |
CN113194034A (zh) | 基于图神经网络和深度强化学习的路由优化方法及系统 | |
CN108259387B (zh) | 一种通过交换机构建的交换系统及其路由方法 | |
US11770326B2 (en) | Producing deadlock-free routes in lossless cartesian topologies with minimal number of virtual lanes | |
CN107332770B (zh) | 一种必经点路由路径选择方法 | |
CN113612692B (zh) | 基于dqn算法的集中式光片上网络自适应路由规划方法 | |
CN113992259B (zh) | 一种时隙资源拓展图的构建方法 | |
US10637739B2 (en) | Network topology system and building method for topologies and routing tables thereof | |
CN116170327B (zh) | 基于图神经网络和强化学习的分段路由网络增量部署方法 | |
CN116527565A (zh) | 基于图卷积神经网络的互联网路由优化方法及装置 | |
CN112543151A (zh) | Sdn控制器部署方法、装置、电子设备和存储介质 | |
CN111861018A (zh) | 一种基于路由信息协议的仓库拣选路径优化方法、存储介质及设备 | |
CN116963225B (zh) | 一种面向流媒体传输的无线mesh网络路由方法 | |
Bhavanasi et al. | Dealing with changes: Resilient routing via graph neural networks and multi-agent deep reinforcement learning | |
Singh et al. | A GA-QMR: Genetic algorithm oriented MANET QoS multicast routing | |
CN113094857A (zh) | 一种节能的软件定义车辆网络的控制器布局方法 | |
Mpitziopoulos et al. | Deriving efficient mobile agent routes in wireless sensor networks with NOID algorithm | |
CN112866120A (zh) | 基于分类搜索的sdn流表无环一致性更新方法和系统 | |
CN106804053A (zh) | 一种移动自组织网络中基于自适应吸引子选择的单播路由方法 | |
CN116599887A (zh) | 基于蜻蜓网络的路由方法、电子设备及介质 | |
CN116389347A (zh) | 一种基于强化学习的动态sdn路由优化算法 | |
Wei et al. | G-Routing: Graph Neural Networks-Based Flexible Online Routing | |
Ouferhat et al. | QoS dynamic routing for wireless sensor networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |