CN114448821A - 一种智能路由方法、装置及网络设备 - Google Patents
一种智能路由方法、装置及网络设备 Download PDFInfo
- Publication number
- CN114448821A CN114448821A CN202111466333.XA CN202111466333A CN114448821A CN 114448821 A CN114448821 A CN 114448821A CN 202111466333 A CN202111466333 A CN 202111466333A CN 114448821 A CN114448821 A CN 114448821A
- Authority
- CN
- China
- Prior art keywords
- route
- layer
- network
- router
- convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 60
- 238000011176 pooling Methods 0.000 claims description 60
- 230000005540 biological transmission Effects 0.000 claims description 36
- 230000004913 activation Effects 0.000 claims description 28
- 238000012544 monitoring process Methods 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 abstract description 9
- 239000002699 waste material Substances 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 16
- 238000004590 computer program Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000012821 model calculation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008054 signal transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/02—Topology update or discovery
- H04L45/08—Learning-based routing, e.g. using neural networks or artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/38—Flow based routing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本说明书公开了一种智能路由方法、装置及网络设备,包括:确定网络中各路由器在最近预设历史时段内的流量模式;将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出下一路由,以此类推,直至预测出的下一步路由为收点路由;基于路由路径将服务请求方路由到目标服务提供方。由此,可使用神经网络代替传统路由协议中的那些最短路径算法,可以有效降低信号交换量和广播频次,而且网络结构较为简单,计算量较小,有效的避免了资源浪费和网络堵塞。
Description
技术领域
本文件涉及通信技术领域,尤其涉及一种智能路由方法、装置及网络设备。
背景技术
计算机网络通信中,路由技术是其关键和核心的一项技术。在其中,路由选择协议又是路由技术的核心部分,根据网络的自治系统,路由协议分为内部网关协议IGPI,外部网关协议EGP。此处讨论的主要是自治系统中的网络通信协议,所以主要关注内部网关协议IGPI。
传统的内部网关协议主要包括且使用的是RIP协议(RoutingInformationProtocol)和OSPF协议(Open Shortest Path First)。其中OSPF协议的工作步骤为:1、建立邻居。2、向网络中所有路由器广播链路状态,更新路由表。3、通过传统的一些最短路径算法来计算最优路由;RIP协议和OSPF协议在早期表现良好,但随着网络用户的增多,请求网络传输的数据量激增,这些传统路由协议的问题就日益凸显,比如OSPF协议每更新一次就要广播一次更新一下路由表,极大的消耗了计算资源,这种计算时间造成的传输延迟也会给网络造成拥堵。简单的增加路由和链路会导致人力和物力投资的增大,所以需要一种全新的路由算法来解决这个问题。
发明内容
本说明书提供了一种智能路由方法,用以解决无法满足日益增大的网络链路结构而造成的资源浪费、传输延迟的问题。
第一方面,本说明书实施例提供了一种智能路由方法,应用于路由器,包括:
接收到来自服务请求方的传输服务请求时,确定网络中各路由器在最近预设历史时段内的流量模式,所述传输服务请求中包括发点路由和收点路由,所述发点路由和收点路由分别与所述服务请求方和目标服务提供方相对应;
将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出下一路由,以此类推,直至预测出的下一步路由为收点路由;所述预训练深度卷积神经网络的网络结构包括依次连接的卷积池化网络、残差神经网络和输出分类层,所述卷积池化网络包括至少一个卷积池化模块,所述残差神经网络包括至少一个残差模块,所述卷积池化网络的输入为各路由器的流量模式,所述输出分类层的输出为下一路由的位置;
基于路由路径将服务请求方路由到目标服务提供方,所述路由路径用于反映预测出的每一步路由位置的顺序。
可选的,所述确定最近的预设历史时段内网络中各路由器的流量模式,包括:
由网络中各路由器中的流量监控模块记录最近的预设历史时段内其入站数据包的数量;
基于入站数据包的数量,确定本路由器的流量模式,并将本路由器的流量模式以广播的形式分发到其他路由器的边缘路由上。
可选的,所述卷积池化模块包括:第一层和第二层,其中:
第一层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu函数;
第二层为最大池化层,其保留卷积层其中每两个一组的领域点中的最大值。
可选的,所述残差模块依次包括:第一层、第二层、第三层和第四层,其中:
第一层为卷积层,其中有多个卷积滤波器,滑动步长为1,填充方式为VALID,激活函数为Relu函数;
第二层为Flatten层,所述Flatten层将卷积层的输出打平输入到全连接层;
第三层为全连接层,所述全连接层的激活函数是Relu;
第四层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu。
其中,残差模块的输出向量为第四层的输出向量与输入向量的和。
可选的,所述残差模块的第一层和第四层对应的神经网络的损失函数为交叉熵损失函数。
可选的,所述输出分类层输出的下一步路由的位置为one-hot编码形式,则方法还包括:
将所述输出分类层输出的one-hot编码转化为下一个路由位置。
可选的,所述以下一路由为新的发点路由预测出下一路由,包括:
重新确定网络中各路由器在最近预设历史时段内的流量模式;
将重新确定的各路由器的流量模式作为预训练深度卷积神经网络的输入预测出下一路由。
可选的,在基于路由路径将服务请求方路由到目标服务提供方之前,所述方法还包括:
将每一步路由位置按顺序记录在本地路由表内,得到路由路径,以供按照所述路由表存在的所述路由路径将服务请求方路由到目标服务提供方。
第二方面,本说明书实施例还提供了一种智能路由装置,搭载于路由器,包括:中心控制模块和流量监控模块,其中:
所述流量监控模块,用于实时获取网络拓扑结构中的每个路由器在最近预设历史时段内的流量模式;
所述中心控制模块,用于接收到来自服务请求方的传输服务请求,所述传输服务请求中包括发点路由和收点路由,所述发点路由和收点路由分别与所述服务请求方和目标服务提供方相对应;将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出下一路由,以此类推,直至预测出的下一步路由为收点路由;所述预训练深度卷积神经网络的网络结构包括依次连接的卷积池化网络、残差神经网络和输出分类层,所述卷积池化网络包括至少一个卷积池化模块,所述残差神经网络包括至少一个残差模块,所述卷积池化网络的输入为各路由器的流量模式,所述输出分类层的输出为下一路由的位置;基于路由路径将服务请求方路由到目标服务提供方,所述路由路径用于反映预测出的每一步路由位置的顺序。
可选的,所述流量监控模块,具体用于:
由网络中各路由器中的流量监控模块记录最近的预设历史时段内其入站数据包的数量;
基于入站数据包的数量,确定本路由器的流量模式,并将本路由器的流量模式以广播的形式分发到其他路由器的边缘路由上。
可选的,所述卷积池化模块包括:第一层和第二层,其中:
第一层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu函数;
第二层为最大池化层,其保留卷积层其中每两个一组的领域点中的最大值。
可选的,所述残差模块依次包括:第一层、第二层、第三层和第四层,其中:
第一层为卷积层,其中有多个卷积滤波器,滑动步长为1,填充方式为VALID,激活函数为Relu函数;
第二层为Flatten层,所述Flatten层将卷积层的输出打平输入到全连接层;
第三层为全连接层,所述全连接层的激活函数是Relu;
第四层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu。
其中,残差模块的输出向量为第四层的输出向量与输入向量的和。
可选的,所述残差模块的第一层和第四层对应的神经网络的损失函数为交叉熵损失函数。
可选的,所述输出分类层输出的下一步路由的位置为one-hot编码形式,则装置还包括:
编码转化模块,用于将所述输出分类层输出的one-hot编码转化为下一个路由位置。
可选的,所述中心控制模块,具体用于:
重新确定网络中各路由器在最近预设历史时段内的流量模式;将重新确定的各路由器的流量模式作为预训练深度卷积神经网络的输入预测出下一路由。
可选的,装置还包括:
记录模块,用于将每一步路由位置按顺序记录在本地路由表内,得到路由路径,以供按照所述路由表存在的所述路由路径将服务请求方路由到目标服务提供方。
第三方面,本说明书实施例还提供了一种网络设备,包括:通信接口、处理器和存储器;
所述处理器调用所述存储器中的程序指令,用以执行如下动作:
接收到来自服务请求方的传输服务请求时,确定网络中各路由器在最近预设历史时段内的流量模式,所述传输服务请求中包括发点路由和收点路由,所述发点路由和收点路由分别与所述服务请求方和目标服务提供方相对应;
将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出下一路由,以此类推,直至预测出的下一步路由为收点路由;所述预训练深度卷积神经网络的网络结构包括依次连接的卷积池化网络、残差神经网络和输出分类层,所述卷积池化网络包括至少一个卷积池化模块,所述残差神经网络包括至少一个残差模块,所述卷积池化网络的输入为各路由器的流量模式,所述输出分类层的输出为下一路由的位置;
基于路由路径将服务请求方路由到目标服务提供方,所述路由路径用于反映预测出的每一步路由位置的顺序。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
通过构建由多个卷积网络层和残差网络层堆叠而成的网络,其中网络前几层包括卷积神经网络模块和残差模块,最后一层用一个softmax全连接层用来分类,输出是一个代表路由位置的one hot编码向量。该算法可以迅速高效的发掘输入样本的隐含特征,从而可以更好的进行路由规划。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本说明书一实施例提供的一种智能路由方法的流程示意图;
图2为本说明书一实施例提供的一种智能路由装置的结构示意图;
图3为本说明书一实施例提供的路由算法的运行原理示意图;
图4为本说明书一实施例提供的一种智能路由算法网络的示意图。
图5为本说明书一实施例提供的一种残差模块的结构示意图。
图6为本说明书一实施例提供的一种卷积模块的结构示意图
图7为本说明书一实施例提供的一种网络设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1为本说明书一实施例提供的一种智能路由方法的流程示意图,该方法由发点路由器或者发点路由器内部的处理器执行,参见图1,所述方法具体可以包括如下步骤:
步骤102、接收到来自服务请求方的传输服务请求时,确定网络中各路由器在最近预设历史时段内的流量模式,所述传输服务请求可以为相应客户端发送的网络请求,其中可包括发点路由和收点路由,所述发点路由和收点路由分别与所述服务请求方和目标服务提供方相对应;或者,所述传输服务请求可标记服务请求方和目标服务提供方;
其中,流量模式即指每个Δt时刻各个路由器内通过的网络流量;各路由器可以是指网络中当前时段内发起请求的所有路由器。
需要说明的是,步骤102的一种实现方式可以为:
由网络中各路由器中的流量监控模块记录最近的预设历史时段内其入站数据包的数量;基于入站数据包的数量,确定本路由器的流量模式,并将本路由器的流量模式以广播的形式分发到其他路由器的边缘路由上。其中,网络中路由器分为边缘路由和内部路由,边缘路由属于不同网段的服务器,内部路由只有转发功能,其中内部路由和边缘路由将流量模式以广播的形式分发到所有的边缘路由上。
步骤104、将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出新的发点路由的下一路由,以此类推,直至预测出的下一步路由为收点路由;所述预训练深度卷积神经网络的网络结构包括依次连接的卷积池化网络、残差神经网络和输出分类层,所述卷积池化网络包括至少一个卷积池化模块,所述残差神经网络包括至少一个残差模块,所述卷积池化网络的输入为各路由器的流量模式,所述输出分类层的输出为下一路由的位置;
其中,深度卷积神经网络的具体网络结构可视情况调整,如可视情况调整网络层的数量等,此处优选为深度卷积神经网络由多个卷积网络层和残差网络层堆叠而成。参见图4,在一可行实施例中,深度卷积神经网络的具体网络结构可以包括:
输入层:网络通信中各个路由器的流量信号,组成一个列向量。
C1层:卷积池化模块。优选的,选择含有8个滤波器的卷积池化模块。
C2层:卷积池化模块。优选的,选择含有16个滤波器的卷积池化模块。
R1层:残差块;通过残差块,网络可以变得更深而网络的稳定性却不会有很大的变化。
R2层:残差模块。
R3层:残差模块。
D1层:全连接层,该层是网络的输出分类层,神经元数量是网络通信结构中路由器的数量,激活函数为softmax函数。将下一个路由的位置以编码的形式输出。再经过解码模块得到下一步路由的位置。
下面对卷积池化模块和残差模块进行展开说明:
参见6,所述卷积池化模块是构造神经网络中的一个组件,其可以包括:第一层和第二层,其中:
第一层为卷积层,其中有多个卷积滤波器,填充方式为VALID,进行批标准化,激活函数为Relu函数;
第二层为最大池化层,其保留卷积层其中每两个一组的领域点中的最大值。
由此,可以提取出数据中隐含的高维特征。
参见图5,所述残差模块是网络中的一个组件,其可以依次包括:第一层、第二层、第三层和第四层,其中:
第一层为卷积层,其中有多个卷积滤波器,滑动步长为1,填充方式为VALID,激活函数为Relu函数;
第二层为Flatten层,所述Flatten层将卷积层的输出打平输入到全连接层;
第三层为全连接层,所述全连接层的激活函数是Relu,添加该全连接层可以使神经网络更复杂,增强神经网络的表达能力;
第四层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu。
通过残差模块,可以构建非常深的网络而不会出现训练问题,所以可以更有效的挖掘数据的高维特征。
其中,残差模块的输出向量为第四层的输出向量与输入向量的和,这样可以原始输入向量信息,使网络训练的时候更加稳定,表达能力更强;
进一步地,所述残差模块的第一层和第四层对应的神经网络的损失函数为交叉熵损失函数,其可以描述预测下一步路由位置和真实下一步路由位置之前的偏离程度。
进一步地,考虑到流量模式的时效性,为确保智能路由的精确度,在所述以下一路由为新的发点路由预测出下一路由之前,重新确定网络中各路由器在最近预设历史时段内的流量模式,并将重新确定的各路由器的流量模式作为预训练深度卷积神经网络的输入预测出下一路由。
另外,考虑到路由安全性,上述输出分类层输出的下一步路由的位置可以为one-hot编码形式,则方法还包括:由路由器的解码模块将所述输出分类层输出的one-hot编码转化为下一个路由位置。
而且,不难理解的是,中心控制模块、流量监控模块和解码模块是存在于每个路由器中,第一路由的中心控制模块确定下一路由(记为第二路由)的位置之后,若第二路由并非收点路由,则由第一路由的流量监控模块重新确定各路由器的流量模式,并由第一路由的中心控制模块以第二路由为发点路由确定新的下一路由的位置(记为第三路由),以此类推,直至下一路由为收点路由。在此过程中,每确定一下一路由位置则进行记录,从而得到从发点路由到收点路由的路由路径。
步骤106、基于路由路径将服务请求方路由到目标服务提供方,所述路由路径用于反映预测出的每一步路由位置的顺序。
需要说明的是,在执行步骤106之前,还包括:
将每一步路由位置按顺序记录在本地路由表内,得到路由路径,以供按照所述路由表存在的所述路由路径将服务请求方路由到目标服务提供方。
其中,本地路由表是一个存储在路由器或者联网计算机中的电子表格(文件)或类数据库。路由表存储着指向特定网络地址的路径(在有些情况下,还记录有路径的路由度量值)。它可以方便网络在一定时间内按照路由表内记录的路径传输,而非每有一次服务请求就需要进行一次模型计算,减少了服务器资源浪费。
由此可知,本实施例通过构建由多个卷积网络层和残差网络层堆叠而成的网络,其中网络前几层包括卷积神经网络模块和残差模块,最后一层用一个softmax全连接层用来分类,输出是一个代表路由位置的one hot编码向量。该算法可以迅速高效的发掘输入样本的隐含特征,从而可以更好的进行路由规划。
图2为本说明书一实施例提供的一种智能路由装置的结构示意图,搭载于路由器,参见图2,所述装置具体可以包括:中心控制模块201和流量监控模块202,其中:
所述流量监控模块201,用于实时获取网络拓扑结构中的每个路由器在最近预设历史时段内的流量模式;
所述中心控制模块202,用于接收到来自服务请求方的传输服务请求,所述传输服务请求中包括发点路由和收点路由,所述发点路由和收点路由分别与所述服务请求方和目标服务提供方相对应;将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出下一路由,以此类推,直至预测出的下一步路由为收点路由;所述预训练深度卷积神经网络的网络结构包括依次连接的卷积池化网络、残差神经网络和输出分类层,所述卷积池化网络包括至少一个卷积池化模块,所述残差神经网络包括至少一个残差模块,所述卷积池化网络的输入为各路由器的流量模式,所述输出分类层的输出为下一路由的位置;基于路由路径将服务请求方路由到目标服务提供方,所述路由路径用于反映预测出的每一步路由位置的顺序。
可选的,所述流量监控模块201,具体用于:
由网络中各路由器中的流量监控模块记录最近的预设历史时段内其入站数据包的数量;
基于入站数据包的数量,确定本路由器的流量模式,并将本路由器的流量模式以广播的形式分发到其他路由器的边缘路由上。
可选的,所述卷积池化模块包括:第一层和第二层,其中:
第一层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu函数;
第二层为最大池化层,其保留卷积层其中每两个一组的领域点中的最大值。
可选的,所述残差模块依次包括:第一层、第二层、第三层和第四层,其中:
第一层为卷积层,其中有多个卷积滤波器,滑动步长为1,填充方式为VALID,激活函数为Relu函数;
第二层为Flatten层,所述Flatten层将卷积层的输出打平输入到全连接层;
第三层为全连接层,所述全连接层的激活函数是Relu;
第四层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu。
其中,残差模块的输出向量为第四层的输出向量与输入向量的和。
可选的,所述残差模块的第一层和第四层对应的神经网络的损失函数为交叉熵损失函数。
可选的,所述输出分类层输出的下一步路由的位置为one-hot编码形式,则装置还包括:
编码转化模块,用于将所述输出分类层输出的one-hot编码转化为下一个路由位置。
可选的,所述中心控制模块,具体用于:
重新确定网络中各路由器在最近预设历史时段内的流量模式;将重新确定的各路由器的流量模式作为预训练深度卷积神经网络的输入预测出下一路由。
可选的,装置还包括:
记录模块,用于将每一步路由位置按顺序记录在本地路由表内,得到路由路径,以供按照所述路由表存在的所述路由路径将服务请求方路由到目标服务提供方。
本地路由表是一个存储在路由器或者联网计算机中的电子表格(文件)或类数据库。路由表存储着指向特定网络地址的路径(在有些情况下,还记录有路径的路由度量值)。它可以方便网络在一定时间内按照路由表内记录的路径传输,而非每有一次服务请求就需要进行一次模型计算,减少了服务器资源浪费。
由此可知,本实施例通过构建由多个卷积网络层和残差网络层堆叠而成的网络,其中网络前几层包括卷积神经网络模块和残差模块,最后一层用一个softmax全连接层用来分类,输出是一个代表路由位置的one hot编码向量。该算法可以迅速高效的发掘输入样本的隐含特征,从而可以更好的进行路由规划。
下面对实现原理的角度对上述图1和图2对应的实施例进行详细说明:
首先,整体架构包括:卷积池化模块和残差模块,以及广泛存在于基于SDN架构的中心控制模块、流量监控模块和解码模块,其中:
卷积池化模块,是构造神经网络中的一个组件,由一层卷积层和一层最大池化层组成,可以提取出数据中隐含的高维特征。
残差模块,残差模块是网络中的一个组件,由两层卷积层、一层全连接层和一层flatten层组成。通过残差模块,我们可以构建非常深的网络而不会出现训练问题,所以我们可以更有效的挖掘数据的高维特征。
中心控制模块,中心控制模块是一个负责进行模型计算的中央服务器,其架构思想是SDN(software define networks,软件定义网络),通过这种方法我们可以实现任意分配路由路径的方法,而非固定的路由协议。从而我们可以使用深度卷积神经网络在中心控制模块中根据上一个模块中获得的流量模式作为网络输入来预测下一个路由。
流量监控模块,实时获取网络拓扑结构中的前Δt时间内每个路由器的流量模式。
解码模块,将用模型预测后得到的one-hot编码转化为下一个路由位置。
基于该框架,智能路由方法包括如下步骤:
步骤1.在一个网络结构中部署中心控制服务器,利用流量监控模块对网络中的各个路由器的前Δt时间内的流量模式记录下来。
步骤2.利用中心控制模块中的预训练好的深度卷积神经网络来对下一个路由进行预测,然后以此路由为发点,迭代进行预测直到预测到目标路由为止,将路径记录在路由表内。
步骤3.根据步骤2中所预测的路由路径进行网络信号传播。
所述步骤1中,对网络结构中的路由器的流量模式记录的具体步骤如下:
步骤1.1.网络中所有路由器将其入站数据包的数量记录下来。
步骤1.2.网络中路由器分为边缘路由和内部路由,边缘路由属于不同网段的服务器,内部路由只有转发功能,其中内部路由和边缘路由将流量模式以广播的形式分发到所有的边缘路由上。
所述步骤2中,用发点的边缘路由的中心控制模块进行预测的具体步骤为:
步骤2.1.在规划路由路径的发点的路由器的内置中心控制模块内,将流量模式模块内的流量数据输入到预训练好的深度卷积神经网络中,将下一步的路由预测出来。
步骤2.2.若步骤2.1中预测的下一步路由不是该段规划路由路径的收点,则以步骤2.1预测出的下一步路由为发点,输入数据到发点的路由器预训练好的深度卷积神经网络中,预测出下一步路由,直到下一步路由时收点路由时迭代停止。
所述步骤3中,根据步骤2中预测出的路径进行网络信号传输。
上述步骤中预训练好的深度卷积神经网络的输入数据为网络中各个路由器的流量数据,输出为当前路由器的下一个路由位置。其具体网络结构包括:
输入层:网络通信中各个路由器的流量信号,组成一个列向量。
C1层:卷积池化模块。优选的,选择8个滤波器构成的卷积池化模块。
C2层:卷积池化模块。优选的,选择16个滤波器构成的卷积池化模块。
R1层:残差块;通过残差块,网络可以变得更深而网络的稳定性却不会有很大的变化。
R2层:残差模块。
R3层:残差模块。
D1层:全连接层,该层是网络的输出分类层,神经元数量是网络通信结构中路由器的数量,激活函数为softmax函数。将下一个路由的位置以编码的形式输出。再经过解码模块得到下一步路由的位置。
其中,残差模块可继续堆叠,优选为3层。
下面对路由算法的运行原理进行示例性说明:
假设接受传输服务请求,传输服务请求中携带发点和收点,例如1号路由器R1到9号路由器R9。
示例1:在R1路由器内运行深度卷积神经网络,其中的参数设置为预训练好的WMs1,9,输出下一个路由器的位置,假设为3号路由器,然后再在一号路由器内运行深度卷积神经网络,参数设置为WMs3,9,再输出下一个路由器的位置,循环迭代,直至到达终点路由器9号。其中,WMs是指代管理所有网络参数的表。
示例2、结合图3,具体步骤包括:
S1、在R1路由器内,基于训练得到所有参数WMs,向R9发送一个数据包,计算R1-R9的路径;
S2、用参数WMs1,9带入模型得到DL1,9,计算下一路由器位置R5;
S3、用参数WMs5,9带入模型得到DL5,9计算下一个路由器位置R6;
S4、用参数WM6,9带入模型得到DL6,9计算下一路由位置R7;
S5、用参数WMs7,9带入模型得到DL7,9计算下一个路由器位置R9;
S6、得到路径R1→R5→R6→R7→R9。
由此可知,相比于传统路由协议,如RIP,OSPF等,本方案将现在流行的深度学习技术应用在网络信息传输领域,通过路由器内的中心控制模块,流量监控模块,预测路径模块三个主要模块对网络中大量路由的传输路径做了规划,在每一步路由传输上利用深度卷积神经网络来预测出下一步路由的位置并加以存储,进而得到网络中所有的路由的传输路径。面对日益增长的网络信号传输量,利用深度学习技术构造的路由传输方法减少了网络信号开销、网络总吞吐量和网络中下一跳的平均延迟。
图7为本说明书一实施例提供的一种网络设备的结构示意图,参见图7,所述网络设备能够实现上述实施例中智能路由方法的细节,并达到相同的效果。如图7所示,网络设备700包括:处理器701、收发机702、存储器703、用户接口704和总线接口,其中:
在本发明实施例中,网络设备700还包括:存储在存储器上703并可在处理器701上运行的计算机程序,计算机程序被处理器701、执行时实现如下步骤:
接收到来自服务请求方的传输服务请求时,确定网络中各路由器在最近预设历史时段内的流量模式,所述传输服务请求中包括发点路由和收点路由,所述发点路由和收点路由分别与所述服务请求方和目标服务提供方相对应;
将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出下一路由,以此类推,直至预测出的下一步路由为收点路由;所述预训练深度卷积神经网络的网络结构包括依次连接的卷积池化网络、残差神经网络和输出分类层,所述卷积池化网络包括至少一个卷积池化模块,所述残差神经网络包括至少一个残差模块,所述卷积池化网络的输入为各路由器的流量模式,所述输出分类层的输出为下一路由的位置;
基于路由路径将服务请求方路由到目标服务提供方,所述路由路径用于反映预测出的每一步路由位置的顺序。
在图7中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器401代表的一个或多个处理器和存储器703代表的存储器的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发机702可以是多个元件,即包括发送机和接收机,提供用于在传输介质上与各种其他装置通信的单元。针对不同的用户设备,用户接口704还可以是能够外接内接需要设备的接口,连接的设备包括但不限于小键盘、显示器、扬声器、麦克风、操纵杆等。
处理器701负责管理总线架构和通常的处理,存储器703可以存储处理器701在执行操作时所使用的数据。
本发明实施例中,通过配置路由器和网关间的动态路由分流方案,筛选出高价值的流量并分流至业务平台,并将绝大部分无效流量数通至公网,从而能够降低对传输带宽和业务平台的消耗。
可选的,计算机程序被处理器703执行时还可实现如下步骤:
所述确定最近的预设历史时段内网络中各路由器的流量模式,包括:
由网络中各路由器中的流量监控模块记录最近的预设历史时段内其入站数据包的数量;
基于入站数据包的数量,确定本路由器的流量模式,并将本路由器的流量模式以广播的形式分发到其他路由器的边缘路由上。
其中,所述卷积池化模块包括:第一层和第二层,其中:
第一层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu函数;
第二层为最大池化层,其保留卷积层其中每两个一组的领域点中的最大值。
其中,所述残差模块依次包括:第一层、第二层、第三层和第四层,其中:
第一层为卷积层,其中有多个卷积滤波器,滑动步长为1,填充方式为VALID,激活函数为Relu函数;
第二层为Flatten层,所述Flatten层将卷积层的输出打平输入到全连接层;
第三层为全连接层,所述全连接层的激活函数是Relu;
第四层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu。
其中,残差模块的输出向量为第四层的输出向量与输入向量的和。
其中,所述残差模块的第一层和第四层对应的神经网络的损失函数为交叉熵损失函数。
其中,所述输出分类层输出的下一步路由的位置为one-hot编码形式,则方法还包括:
将所述输出分类层输出的one-hot编码转化为下一个路由位置。
其中,所述以下一路由为新的发点路由预测出下一路由,包括:
重新确定网络中各路由器在最近预设历史时段内的流量模式;
将重新确定的各路由器的流量模式作为预训练深度卷积神经网络的输入预测出下一路由。
其中,在基于路由路径将服务请求方路由到目标服务提供方之前,所述方法还包括:
将每一步路由位置按顺序记录在本地路由表内,得到路由路径,以供按照所述路由表存在的所述路由路径将服务请求方路由到目标服务提供方。
相比于传统路由协议,如RIP,OSPF等,本网络设备将现在流行的深度学习技术应用在网络信息传输领域,通过路由器内的中心控制模块、流量监控模块对网络中大量路由的传输路径做了规划,在每一步路由传输上利用深度卷积神经网络来预测出下一步路由的位置并加以存储,进而得到网络中所有的路由的传输路径。面对日益增长的网络信号传输量,利用深度学习技术构造的路由传输方法减少了网络信号开销、网络总吞吐量和网络中下一跳的平均延迟。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种智能路由方法,其特征在于,应用于路由器,包括:
接收到来自服务请求方的传输服务请求时,确定网络中各路由器在最近预设历史时段内的流量模式,所述传输服务请求中包括发点路由和收点路由,所述发点路由和收点路由分别与所述服务请求方和目标服务提供方相对应;
将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出下一路由,以此类推,直至预测出的下一步路由为收点路由;所述预训练深度卷积神经网络的网络结构包括依次连接的卷积池化网络、残差神经网络和输出分类层,所述卷积池化网络包括至少一个卷积池化模块,所述残差神经网络包括至少一个残差模块,所述卷积池化网络的输入为各路由器的流量模式,所述输出分类层的输出为下一路由的位置;
基于路由路径将服务请求方路由到目标服务提供方,所述路由路径用于反映预测出的每一步路由位置的顺序。
2.根据权利要求1所述的方法,其特征在于,所述确定最近的预设历史时段内网络中各路由器的流量模式,包括:
由网络中各路由器中的流量监控模块记录最近的预设历史时段内其入站数据包的数量;
基于入站数据包的数量,确定本路由器的流量模式,并将本路由器的流量模式以广播的形式分发到其他路由器的边缘路由上。
3.根据权利要求1所述的方法,其特征在于,所述卷积池化模块包括:第一层和第二层,其中:
第一层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu函数;
第二层为最大池化层,其保留卷积层其中每两个一组的领域点中的最大值。
4.根据权利要求1所述的方法,其特征在于,所述残差模块依次包括:第一层、第二层、第三层和第四层,其中:
第一层为卷积层,其中有多个卷积滤波器,滑动步长为1,填充方式为VALID,激活函数为Relu函数;
第二层为Flatten层,所述Flatten层将卷积层的输出打平输入到全连接层;
第三层为全连接层,所述全连接层的激活函数是Relu;
第四层为卷积层,其中有多个卷积滤波器,填充方式为VALID,激活函数为Relu。
其中,残差模块的输出向量为第四层的输出向量与输入向量的和。
5.根据权利要求4所述的方法,其特征在于,
所述残差模块的第一层和第四层对应的神经网络的损失函数为交叉熵损失函数。
6.根据权利要求1所述的方法,其特征在于,所述输出分类层输出的下一步路由的位置为one-hot编码形式,则方法还包括:
将所述输出分类层输出的one-hot编码转化为下一个路由位置。
7.根据权利要求1所述的方法,其特征在于,所述以下一路由为新的发点路由预测出下一路由,包括:
重新确定网络中各路由器在最近预设历史时段内的流量模式;
将重新确定的各路由器的流量模式作为预训练深度卷积神经网络的输入预测出下一路由。
8.根据权利要求1所述的方法,其特征在于,在基于路由路径将服务请求方路由到目标服务提供方之前,所述方法还包括:
将每一步路由位置按顺序记录在本地路由表内,得到路由路径,以供按照所述路由表存在的所述路由路径将服务请求方路由到目标服务提供方。
9.一种智能路由装置,其特征在于,搭载于路由器,包括:中心控制模块和流量监控模块,其中:
所述流量监控模块,用于实时获取网络拓扑结构中的每个路由器在最近预设历史时段内的流量模式;
所述中心控制模块,用于接收到来自服务请求方的传输服务请求,所述传输服务请求中包括发点路由和收点路由,所述发点路由和收点路由分别与所述服务请求方和目标服务提供方相对应;将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出下一路由,以此类推,直至预测出的下一步路由为收点路由;所述预训练深度卷积神经网络的网络结构包括依次连接的卷积池化网络、残差神经网络和输出分类层,所述卷积池化网络包括至少一个卷积池化模块,所述残差神经网络包括至少一个残差模块,所述卷积池化网络的输入为各路由器的流量模式,所述输出分类层的输出为下一路由的位置;基于路由路径将服务请求方路由到目标服务提供方,所述路由路径用于反映预测出的每一步路由位置的顺序。
10.一种网络设备,其特征在于,包括:通信接口、处理器和存储器;
所述处理器调用所述存储器中的程序指令,用以执行如下动作:
接收到来自服务请求方的传输服务请求时,确定网络中各路由器在最近预设历史时段内的流量模式,所述传输服务请求中包括发点路由和收点路由,所述发点路由和收点路由分别与所述服务请求方和目标服务提供方相对应;
将各路由器的流量模式作为发点路由的预训练深度卷积神经网络的输入预测出下一路由;若下一路由为非收点路由,则以下一路由为新的发点路由预测出下一路由,以此类推,直至预测出的下一步路由为收点路由;所述预训练深度卷积神经网络的网络结构包括依次连接的卷积池化网络、残差神经网络和输出分类层,所述卷积池化网络包括至少一个卷积池化模块,所述残差神经网络包括至少一个残差模块,所述卷积池化网络的输入为各路由器的流量模式,所述输出分类层的输出为下一路由的位置;
基于路由路径将服务请求方路由到目标服务提供方,所述路由路径用于反映预测出的每一步路由位置的顺序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111466333.XA CN114448821A (zh) | 2021-12-03 | 2021-12-03 | 一种智能路由方法、装置及网络设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111466333.XA CN114448821A (zh) | 2021-12-03 | 2021-12-03 | 一种智能路由方法、装置及网络设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114448821A true CN114448821A (zh) | 2022-05-06 |
Family
ID=81364560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111466333.XA Pending CN114448821A (zh) | 2021-12-03 | 2021-12-03 | 一种智能路由方法、装置及网络设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114448821A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784820A (zh) * | 2019-03-28 | 2019-05-21 | 上海中通吉网络技术有限公司 | 一种快递路由智能解决方法、装置、终端设备及存储介质 |
CN110555640A (zh) * | 2018-05-31 | 2019-12-10 | 北京京东振世信息技术有限公司 | 路由规划的方法和装置 |
CN111010341A (zh) * | 2019-12-19 | 2020-04-14 | 南京大学 | 一种基于深度学习的覆盖网络路由决策方法 |
US20210216880A1 (en) * | 2019-01-02 | 2021-07-15 | Ping An Technology (Shenzhen) Co., Ltd. | Method, equipment, computing device and computer-readable storage medium for knowledge extraction based on textcnn |
-
2021
- 2021-12-03 CN CN202111466333.XA patent/CN114448821A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555640A (zh) * | 2018-05-31 | 2019-12-10 | 北京京东振世信息技术有限公司 | 路由规划的方法和装置 |
US20210216880A1 (en) * | 2019-01-02 | 2021-07-15 | Ping An Technology (Shenzhen) Co., Ltd. | Method, equipment, computing device and computer-readable storage medium for knowledge extraction based on textcnn |
CN109784820A (zh) * | 2019-03-28 | 2019-05-21 | 上海中通吉网络技术有限公司 | 一种快递路由智能解决方法、装置、终端设备及存储介质 |
CN111010341A (zh) * | 2019-12-19 | 2020-04-14 | 南京大学 | 一种基于深度学习的覆盖网络路由决策方法 |
Non-Patent Citations (1)
Title |
---|
刘辰屹;徐明伟;耿男;张翔;: "基于机器学习的智能路由算法综述", 计算机研究与发展, no. 04, 31 December 2020 (2020-12-31) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Natarajan et al. | An IoT and machine learning‐based routing protocol for reconfigurable engineering application | |
US10771336B2 (en) | Topology-aware controller associations in software-defined networks | |
US10554500B2 (en) | Modeling access networks as trees in software-defined network controllers | |
Fiandrino et al. | A machine-learning-based framework for optimizing the operation of future networks | |
CN110365568A (zh) | 一种基于深度强化学习的虚拟网络映射方法 | |
US20110280129A1 (en) | System of Path Computation Element Protocol Support for Large-Scale Concurrent Path Computation | |
CN105791169A (zh) | 软件定义网络中交换机转发控制、转发方法及相关设备 | |
CN113259147B (zh) | 网元管理方法、装置、计算机设备、介质 | |
CN112543151B (zh) | Sdn控制器部署方法、装置、电子设备和存储介质 | |
CN115514696B (zh) | 一种传递算力资源信息的方法、装置及设备 | |
Nguyen et al. | Efficient virtual network embedding with node ranking and intelligent link mapping | |
CN105553855A (zh) | 动态调整底层网络生成树拓扑结构的方法及系统 | |
Salamai | An Approach Based on Decision-Making Algorithms for Qos-Aware Iot Services Composition. | |
Risso et al. | Metaheuristic approaches for IP/MPLS network design | |
CN111865474A (zh) | 基于边缘计算的无线通信抗干扰决策方法及系统 | |
Rahimi‐Farahani et al. | Forced‐node route guidance system: incorporating both user equilibrium and system optimal benefits | |
CN108834173A (zh) | 一种无线多跳网络的集中式优化分配方法 | |
CN114448821A (zh) | 一种智能路由方法、装置及网络设备 | |
Meng et al. | Q‐learning‐based congestion control strategy for information‐centric networking | |
CN107453997B (zh) | 一种基于双代价的优化路由方法 | |
CN114374636B (zh) | 一种智能路由方法、装置及网络设备 | |
Sahaya Sheela et al. | Improvement of battery lifetime in software‐defined network using particle swarm optimization based cluster‐head gateway switch routing protocol with fuzzy rules | |
Duran et al. | Age of Twin (AoT): A New Digital Twin Qualifier for 6G Ecosystem | |
CN114710433B (zh) | 一种智能路由方法、装置及网络设备 | |
Aljeri et al. | EDiPSo: An efficient scalable topology discovery protocol for software-defined vehicular networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |