CN116055570A - 渐进式算力感知、算力请求和算力转发的方法和装置 - Google Patents
渐进式算力感知、算力请求和算力转发的方法和装置 Download PDFInfo
- Publication number
- CN116055570A CN116055570A CN202211703977.0A CN202211703977A CN116055570A CN 116055570 A CN116055570 A CN 116055570A CN 202211703977 A CN202211703977 A CN 202211703977A CN 116055570 A CN116055570 A CN 116055570A
- Authority
- CN
- China
- Prior art keywords
- computing
- force
- power
- network
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明实施例公开了一种渐进式算力感知、算力请求和算力转发的方法,通过引入算力网关装置,算力网关在算力供给侧作为算力资源感知的代理器,根据网关软硬件基础设置灵活规划和调整代理的算力资源节点数量,解决集中式算力信息交互技术方案中算网控制器压力过大的问题,同时通过算力网关与算网控制器协同工作,算网控制器负责算力路由控制面,算力网关负责算力路由转发面,解决了分布式算力信息交互技术方案中网络设备代价高昂的问题。
Description
技术领域
本发明属于网络通信技术领域,具体涉及一种算力网络的算力感知、算力请求和算力转发方法。
背景技术
算力网络是以服务的方式提供算力资源,但算力资源的位置分布信息和其具备的资源量对整个算力网络是未知的,我们需要通过某种方式将算力资源的信息在整个网络中通告。目前算力资源信息的交互有分布式和集中式两种技术方案。分布式的交互技术方案中,网络设备负责本地算力资源信息的收集,并通过路由协议报文扩展将算力信息全网扩散,各网络设备根据获得的算力资源信息和网络拓扑在本地生成服务路由信息表;集中式的交互技术中,网络设备不再通过路由协议扩散算力信息,而是将其上报给算力网络控制器,算力网络控制器根据完整的算力信息和网络拓扑信息进行计算,完成算力路由服务信息表的生成。上面描述了算力资源信息的交互也就是算力感知的现有方案,算力请求和算力转发的技术方案相对更通用,基本原理是在通用软件请求调用和路由转发技术方案上改造增加算力信息。
现有的分布式交互技术方案中,每台网络设备获得其直接相连的算力信息,通过路由协议在全网间传递交换信息,而后每台网络设备都需要结合网络拓扑信息分别进行路径的计算,随着算力信息数量增长和网络规模的扩大,各个网络设备维护整个算力网络运行的成本将极其高昂。
集中式交互技术方案中,网络设备之间不再扩散算力信息,同时也不再计算和维护路由服务信息表,而是将算力信息通告给控制器,最终由控制器根据算力信息和网络拓扑信息计算生成路由服务信息表。但此方案中,每一个算力资源节点都与算网控制器进行通信,一般来说算力资源节点数量庞大,远高于网络设备,将导致算网控制器压力过大。
发明内容
针对现有技术中存在的缺陷,本发明实施例提供了一种渐进式算力感知、算力请求和算力转发的方法和装置。
第一方面,本发明提供了一种渐进式算力感知、算力请求和算力转发的方法,其特征在于,所述方法包括:
获得算力网络的网络资源,通过算力网关整合算力网络中多个算力节点和/或多个算力资源池的算力资源,基于所述网络资源和所述算力资源得到全局算力和网络资源视图;
通过算力网关汇聚多个算力请求并接入算力网络中;
基于所述算力请求,算网控制器根据所述全局算力和网络资源视图得到所述算力请求的算力策略表;
算网控制器通过算力网关将算力策略表由算力路由转发到所述算力策略表对应的算力节点,基于算力策略表调度所述算力节点进行相应算力请求的处理;
所述算力请求通过算力网关退出算力网络。
在一些实施例中,算力资源包括:
CPU、GPU的计算资源、FPGA、ASIC的专用计算资源、存储资源的基础计算资源以及应用、服务、算法的服务类资源。
在一些实施例中,算力策略表包括:
所述算力请求的网络SLA策略、目标算力网关、策略代价以及策略路径。
在一些实施例中,算网控制器根据所述全局算力和网络资源视图得到所述算力请求的算力策略表,所述算力策略表基于时延、带宽和成本的算力策略以及实时的网络状况、计算资源状况和计算算力路径获得。
在一些实施例中,通过算力网关汇聚多个算力请求并接入算力网络中,包括:
在Ingress算力网关基于所述算力请求,根据查询所述算力路由的算力路由缓存表、算力路由表和算力路由策略表的结果,将所述算力请求的算力信息SID封装进SRv6扩展报文头,其中,所述SRv6扩展报文头的外层报文头源地址和目的地址分别指向Ingress网关和Egress网关;
根据所述SRv6扩展报文头加载算力服务标识,进入算力网络。
在一些实施例中,算力请求通过算力网关退出算力网络,包括:
当所述算力请求到达算力网络边界时,在Egress算力网关剥离所述算力请求的SRv6扩展报文头,获得所述算力请求的内层报文头,并根据所述算力请求的内层报文头中的app-id,查找算力服务实例表进行二次寻址,并通过所述二次寻址为所述算力请求提供最终算力服务,卸载算力服务标识,离开算力网络,终止所述算力请求的算力服务。
其中所述算力服务实例表包括,应用服务、目标Server以及服务代价Metric。
在一些实施例中,算力服务实例表包括,应用服务、目标Server以及服务代价Metric。
另一方面,本发明提供了一种渐进式算力感知、算力请求和算力转发的装置,其特征在于,所述装置包括:
算力网关,所述算力网关用于获得算力资源,基于算力网关获得的算力资源和所述算力网络的网络资源,得到所述算力资源和所述算力网络的网络资源的全局算力和网络资源视图;提供算力请求接入算力网络中的接口;将算网控制器获得的算力策略表由算力路由转发到所述算力策略表对应的算力节点;并指导所述算力请求进入算力网络和退出算力网络;
算网控制器,所述算网控制器根据所述全局算力和网络资源视图得到所述算力请求的算力策略表并输入到算力网关中;其中所述算网控制器通过所述算力策略表调度算力节点进行相应算力请求的处理;
算力路由,所述算力路由用于将算力策略表转发到算力策略表中对应的算力节点。
另一方面,本发明实施例提供了一种电子设备,包括存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述了上述渐进式算力感知、算力请求和算力转发的方法。
另一方面,本发明实施例提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行上述渐进式算力感知、算力请求和算力转发的方法。
相比较现有技术,本发明实施例提供的上述渐进式算力感知、算力请求和算力转发的方法,通过引入算力网关装置,算力网关在算力供给侧作为算力资源感知的代理器,根据网关软硬件基础设置灵活规划和调整代理的算力资源节点数量,解决集中式算力信息交互技术方案中算网控制器压力过大的问题,同时通过算力网关与算网控制器协同工作,算网控制器负责算力路由控制面,算力网关负责算力路由转发面,解决了分布式算力信息交互技术方案中网络设备代价高昂的问题。
附图说明
图1为渐进式算力感知、算力请求和算力转发的方法的流程图;
图2为渐进式算力网关感知示意图;
图3为渐进式算力请求示意图;
图4为渐进式算力转发的示意图;
图5为渐进式算力感知、算力请求和算力转发的装置架构示意图。
具体实施方式
为了实现引入算力网关装置,算力网关在算力供给侧作为算力资源感知的代理器,根据网关软硬件基础设置灵活规划和调整代理的算力资源节点数量,解决集中式算力信息交互技术方案中算网控制器压力过大的问题,同时通过算力网关与算网控制器协同工作,算网控制器负责算力路由控制面,算力网关负责算力路由转发面,解决了分布式算力信息交互技术方案中网络设备代价高昂的问题。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,这仅仅是描述本申请的实施例中对相同属性的对象在描述时所采用的区分方式。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便包含一系列单元的过程、方法、系统、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它单元。
一方面,本发明提供了一种渐进式算力感知、算力请求和算力转发的方法,图1是渐进式算力感知、算力请求和算力转发的方法的流程图,该方法包括:
S110:通过算力网关得到全局算力和网络资源视图
获得算力网络的网络资源,通过算力网关获得算力网络中的算力资源,基于所述网络资源和所述算力资源得到全局算力和网络资源视图。
在一个可能的实施例中,算力网络的先决条件是把分散异构的算力资源汇聚起来,算力网关在计算资源侧收集算力网络的算力资源信息,包括CPU、GPU等通用计算资源,FPGA、ASIC等专用计算资源,以及存储资源等基础计算资源,也包括应用、服务、算法等服务类资源。具体实施方式为:
在算网控制器和算力资源之间引入算力网关,作为算力资源上报的汇聚层,减轻数量庞大的算力资源池跟算网控制器直接通信的压力,图2是渐进式算力网关感知示意图,算力网关和算力资源池是1对N的关系。通过算力网关对多节点/资源池算力资源的汇聚整合,最终构建全局统一的算网计算资源视图。
算力感知除了通过算力网关收集计算资源,同时也需要利用现有技术收集和感知网络资源,计算资源和网络资源的整合和统一才能构成完整的全局算力和网络资源视图。
S120:通过算力网关汇聚多个算力请求并接入算力网络中
在Ingress算力网关基于所述算力请求,根据查询所述算力路由的算力路由缓存表、算力路由表和算力路由策略表的结果,将所述算力请求的算力信息SID封装进SRv6扩展报文头,其中,所述SRv6扩展报文头的外层报文头源地址和目的地址分别指向Ingress网关和Egress网关;
根据所述SRv6扩展报文头加载算力服务标识,进入算力网络。
在一个可能的实施例中,算力需求方通过算力网关接入算力网络,无需关心网络中计算资源的位置和状态信息,而只需关注自身获得的服务。图3是渐进式算力请求示意图,对算力资源的需求通过算力网关汇聚并发送给算网控制器,算网控制器通过流程S101所掌控的算力资源和网络全局视图计算算力需求服务提供方和服务转发路径,并下发给算力网关执行转发动作。算力网关和算力请求同样是1对N的关系。
S130:通过算力控制器得到算力请求的算力策略表
基于所述算力请求,算网控制器根据所述全局算力和网络资源视图得到所述算力请求的算力策略表;所述算力策略表包括所述算力请求的网络SLA策略、目标算力网关、策略代价以及策略路径。
在一个可能的实施例中,算网控制器根据各种算路策略(如时延、带宽、成本等),同时综合考虑实时的网络状况和计算资源状况,计算算力路径,将不同的应用调度到合适的计算节点进行处理。算网控制器将路径计算的结果体现为算力策略表,该策略表由算网控制器负责下发给算力网关,算力网关负责维护该算力策略表,并指导算力路由转发。通过算网控制器负责路由控制和算力网关负责算力路由转发,继续遵循转发与控制分离的思路,算力策略表包括,网络SLA策略、目标算力网关、策略代价以及策略路径,结构如表1所示:
表1算力策略表结构
S140:通过算力网关将算力策略表由算力路由转发到所述算力策略表对应的算力节点
算网控制器通过算力网关将算力策略表由算力路由转发到所述算力策略表对应的算力节点,基于算力策略表调度所述算力节点进行相应算力请求的处理;
在一个可能的实施例中,算网控制器根据各种算路策略(如时延、带宽、成本等)计算算力路径并下发算力策略表,算力网关负责维护该算力策略表,并指导算力路由转发。算力网关根据下发的策略表,在接到用户算力请求后,根据转发表将算力请求路由到策略相应的目标算力节点,由目标算力节点进行相应算力请求的处理。图4是渐进式算力转发的示意图,IP流量在Ingress算力网关利用SRv6协议的扩展性加装算力服务标识,进入算力网络,在Egress算力网关剥离算力服务标识,离开算力网络的服务范围。
S150:所述算力请求通过算力网关退出算力网络
通过算力网关指导所述算力请求进入算力网络和退出算力网络;
当算力请求到达算力网络的边界,Egress网关对到达的算力请求剥离外层报文头,并对内层报文头根据app-id查找算力服务实例表进行二次寻址,算力网关通过二次寻址提供最终算力服务。
然后,算力请求卸载算力服务标识,离开算力网络,终止算力服务。同时算力网络也提供一定范围内的算力资源负载均衡能力,算力服务实例表包括,应用服务、目标Server以及服务代价Metric,结构如表2所示:
表2算力服务表结构
应用服务 | 目标Server | 服务代价Metric |
App1 | Server1 | 10 |
App1 | Server2 | 25 |
App2 | Server1 | 15 |
App2 | Server2 | 20 |
另一方面,本发明提供了一种渐进式算力感知、算力请求和算力转发的装置,图5是渐进式算力感知、算力请求和算力转发的装置架构示意图,装置包括:
S510:算力网关
算力网关用于获得算力资源,基于算力网关获得的算力资源和所述算力网络的网络资源,得到所述算力资源和所述算力网络的网络资源的全局算力和网络资源视图;提供算力请求接入算力网络中的接口;将算网控制器获得的算力策略表由算力路由转发到所述算力策略表对应的算力节点;并指导所述算力请求进入算力网络和退出算力网络;
S520:算网控制器
算网控制器根据所述全局算力和网络资源视图得到所述算力请求的算力策略表并输入到算力网关中;其中所述算网控制器通过所述算力策略表调度算力节点进行相应算力请求的处理。
S530:算力路由
算力路由用于将算力策略表转发到算力策略表中对应的算力节点。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
本发明实施例提供的算力感知、算力请求和算力转发的方法是一种渐进式的改造方式,在现有网络和算力资源中间引入薄薄一层连接网络资源和算力资源视图,不会对现有系统已承载功能和业务冲击。该渐进式的改造方式在技术成熟充分验证的前提下,也可以直接在现网环境上改造。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种渐进式算力感知、算力请求和算力转发的方法,其特征在于,所述方法包括:
获得算力网络的网络资源,通过算力网关整合算力网络中多个算力节点和/或多个算力资源池的算力资源,基于所述网络资源和所述算力资源得到全局算力和网络资源视图;
通过算力网关汇聚多个算力请求并接入算力网络中;
基于所述算力请求,算网控制器根据所述全局算力和网络资源视图得到所述算力请求的算力策略表;
算网控制器通过算力网关将算力策略表由算力路由转发到所述算力策略表对应的算力节点,基于算力策略表调度所述算力节点进行相应算力请求的处理;
所述算力请求通过算力网关退出算力网络。
2.根据权利要求1所述的算力感知、算力请求和算力转发的方法,其特征在于,所述算力资源包括:
CPU、GPU的计算资源、FPGA、ASIC的专用计算资源、存储资源的基础计算资源以及应用、服务、算法的服务类资源。
3.根据权利要求1所述的算力感知、算力请求和算力转发的方法,其特征在于,所述算力策略表包括:
所述算力请求的网络SLA策略、目标算力网关、策略代价以及策略路径。
4.根据权利要求1所述的算力感知、算力请求和算力转发的方法,其特征在于,所述算力策略表基于时延、带宽和成本的算力策略以及实时的网络状况、计算资源状况和计算算力路径获得。
5.根据权利要求1所述的算力感知、算力请求和算力转发的方法,其特征在于,所述通过算力网关汇聚多个算力请求并接入算力网络中,包括:
在Ingress算力网关基于所述算力请求,根据查询所述算力路由的算力路由缓存表、算力路由表和算力路由策略表的结果,将所述算力请求的算力信息SID封装进SRv6扩展报文头,其中,所述SRv6扩展报文头的外层报文头源地址和目的地址分别指向Ingress网关和Egress网关;
根据所述SRv6扩展报文头加载算力服务标识,进入算力网络。
6.根据权利要求1所述的算力感知、算力请求和算力转发的方法,其特征在于,所述算力请求通过算力网关退出算力网络,包括:
当所述算力请求到达算力网络边界时,在Egress算力网关剥离所述算力请求的SRv6扩展报文头,获得所述算力请求的内层报文头,并根据所述算力请求的内层报文头中的app-id,查找算力服务实例表进行二次寻址,并通过所述二次寻址为所述算力请求提供最终算力服务,卸载算力服务标识,离开算力网络,终止所述算力请求的算力服务。
7.根据权利要求6所述的算力感知、算力请求和算力转发的方法,其特征在于,所述算力服务实例表包括,应用服务、目标Server以及服务代价Metric。
8.一种渐进式算力感知、算力请求和算力转发的装置,其特征在于,所述装置包括:
算力网关,所述算力网关用于获得算力资源,基于算力网关获得的算力资源和所述算力网络的网络资源,得到所述算力资源和所述算力网络的网络资源的全局算力和网络资源视图;提供算力请求接入算力网络中的接口;将算网控制器获得的算力策略表由算力路由转发到所述算力策略表对应的算力节点;并指导所述算力请求进入算力网络和退出算力网络;
算网控制器,所述算网控制器根据所述全局算力和网络资源视图得到所述算力请求的算力策略表并输入到算力网关中;其中所述算网控制器通过所述算力策略表调度算力节点进行相应算力请求的处理;
算力路由,所述算力路由用于将算力策略表转发到算力策略表中对应的算力节点。
9.一种电子设备,包括存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至7任一项所述的方法。
10.一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行所述权利要求1至7任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211703977.0A CN116055570A (zh) | 2022-12-29 | 2022-12-29 | 渐进式算力感知、算力请求和算力转发的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211703977.0A CN116055570A (zh) | 2022-12-29 | 2022-12-29 | 渐进式算力感知、算力请求和算力转发的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116055570A true CN116055570A (zh) | 2023-05-02 |
Family
ID=86130691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211703977.0A Pending CN116055570A (zh) | 2022-12-29 | 2022-12-29 | 渐进式算力感知、算力请求和算力转发的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116055570A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116436806A (zh) * | 2023-06-12 | 2023-07-14 | 亚信科技(中国)有限公司 | 算网资源编排方法、装置、电子设备及计算机存储介质 |
CN116743878A (zh) * | 2023-08-14 | 2023-09-12 | 新华三技术有限公司 | 算力注册方法、装置、计算机设备及存储介质 |
-
2022
- 2022-12-29 CN CN202211703977.0A patent/CN116055570A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116436806A (zh) * | 2023-06-12 | 2023-07-14 | 亚信科技(中国)有限公司 | 算网资源编排方法、装置、电子设备及计算机存储介质 |
CN116436806B (zh) * | 2023-06-12 | 2023-08-18 | 亚信科技(中国)有限公司 | 算网资源编排方法、装置、电子设备及计算机存储介质 |
CN116743878A (zh) * | 2023-08-14 | 2023-09-12 | 新华三技术有限公司 | 算力注册方法、装置、计算机设备及存储介质 |
CN116743878B (zh) * | 2023-08-14 | 2023-10-27 | 新华三技术有限公司 | 算力注册方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116055570A (zh) | 渐进式算力感知、算力请求和算力转发的方法和装置 | |
Xiao et al. | Dynamic network slicing for scalable fog computing systems with energy harvesting | |
Bi et al. | Intelligent quality of service aware traffic forwarding for software-defined networking/open shortest path first hybrid industrial internet | |
CN109947574B (zh) | 一种基于雾网络的车辆大数据计算卸载方法 | |
CN114567598A (zh) | 一种基于深度学习和跨域协作的负载均衡方法及装置 | |
CN106060145A (zh) | 一种分布式多云数据中心中基于收益的请求访问控制方法 | |
WO2024104284A1 (zh) | 一种基于nwdaf对计算资源的管理和决策的方法 | |
CN106992906B (zh) | 一种访问速率的调整方法及系统 | |
CN114500405A (zh) | 一种多类型业务应用的资源分配、获取方法及装置 | |
CN112822108A (zh) | 建立lsp的方法、服务器及路由器 | |
CN114827284B (zh) | 工业物联网中服务功能链编排方法、装置及联邦学习系统 | |
Liu et al. | CFN-dyncast: Load Balancing the Edges via the Network | |
Phan et al. | Utility-centric networking: Balancing transit costs with quality of experience | |
Huang et al. | Service provisioning update scheme for mobile application users in a cloudlet network | |
Meneguette et al. | An efficient green-aware architecture for virtual machine migration in sustainable vehicular clouds | |
Aloqaily et al. | Trustworthy cooperative UAV-based data management in densely crowded environments | |
Wu et al. | Resource allocation optimization in the NFV-enabled MEC network based on game theory | |
Laroui et al. | Virtual mobile edge computing based on IoT devices resources in smart cities | |
CN112087382B (zh) | 一种服务路由方法及装置 | |
CN113032146A (zh) | 一种面向多接入边缘计算环境的健壮性服务供应方法 | |
Al-Khafajiy et al. | Enabling high performance fog computing through fog-2-fog coordination model | |
Li et al. | A distributed approach for multi-constrained path selection and routing optimization | |
KR101627625B1 (ko) | 어플리케이션과 네트워크가 융합 구동하는 멀티프로토콜 경로선택 시스템 및 방법 | |
CN113315704A (zh) | 报文转发方法、sdn控制器、交换机及系统 | |
Lee et al. | ACO-based optimal node selection method for QoE improvement in MEC environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |