CN117119043A - 一种边缘网络拓扑感知的微服务部署方法 - Google Patents

一种边缘网络拓扑感知的微服务部署方法 Download PDF

Info

Publication number
CN117119043A
CN117119043A CN202311038672.7A CN202311038672A CN117119043A CN 117119043 A CN117119043 A CN 117119043A CN 202311038672 A CN202311038672 A CN 202311038672A CN 117119043 A CN117119043 A CN 117119043A
Authority
CN
China
Prior art keywords
service
micro
node
nodes
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311038672.7A
Other languages
English (en)
Inventor
卢汉成
黄勇胜
陈雨昂
吴枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202311038672.7A priority Critical patent/CN117119043A/zh
Publication of CN117119043A publication Critical patent/CN117119043A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种边缘网络拓扑感知的微服务部署方法,针对边缘网络拓扑的业务调用关系,通过引入虚拟首部微服务和调用矩阵将业务调用关系转化为矩阵形式,并通过构建流量模型确定节点间的流量信息;采用排队模型在节点层计算节点间的实际可用带宽;根据所得到的节点间的实际可用带宽和传播时延,在微服务层计算微服务实例之间的通信时延,并在业务层计算每个业务的平均通信时延;基于通信时延确定优化目标和约束条件,建立优化模型;通过引入0‑1变量表示在节点上是否部署微服务,得到适合边缘网络拓扑的微服务部署方案。该方法能够根据边缘网络的拓扑结构和业务需求,优化微服务部署方案,有效降低边缘环境中的业务时延,提高了用户体验。

Description

一种边缘网络拓扑感知的微服务部署方法
技术领域
本发明涉及计算机通信技术领域,尤其涉及一种边缘网络拓扑感知的微服务部署方法。
背景技术
随着工业物联网、虚拟现实等新兴业务的迅猛发展,网络服务的数据规模和计算需求呈现蓬勃增长的趋势。然而由于与用户地理位置距离较远,传统的集中式云计算架构日益难以满足这些具有低时延、高可靠特性的新兴业务的服务质量要求,为了提高业务的实时性并降低数据流量以保证可靠性,边缘计算、雾计算等新兴计算架构被提出并逐渐得到广泛应用,旨在将计算和存储资源置于离终端更近的位置,这些计算架构尤其适用于具有低时延和高可靠性需求的服务。然而与集中式云计算架构中庞大且集中的计算资源相比,边缘服务器在计算、存储和通信等方面的资源相对有限,且地理位置分散。因此仅靠单一的边缘节点往往难以满足具有复杂任务的新兴业务的资源需求,通常需要多个分布式边缘节点协同工作,从而共同满足业务需求。在众多的分布式部署的场景中,微服务架构备受关注,在微服务架构中,一个应用系统被拆分成一系列具有单一业务功能的微服务,多个微服务之间通过紧密协作实现完整的系统功能。与传统的单体应用相比,基于容器化部署的微服务实例具有更快的部署速度和更强的可移植性,可以灵活地部署在资源有限且异构的边缘设备上,非常适合在边缘环境中部署业务。
虽然微服务架构有利于克服设备的异构性,可以灵活地部署在多个边缘节点上,但是由于将完整的业务功能拆分为微服务,这些微服务之间的调用关系将变得异常复杂,并且实现完整的业务功能,某些微服务需要多次调用。为了实现高效的微服务调用,多个业务之间可以共享同一类微服务,而每类微服务可以拥有多个实例。然而现有的大多数微服务调用是基于gRPC、RESTful API等网络协议的,相比于传统单体式应用,微服务架构对通信的需求将会更大,除此之外,在节点位置较为分散的边缘环境中,节点间的通信能力具有异构性,因此微服务部署的位置也对网络性能产生重要影响。
然而面对上述问题,现有技术的大多数研究只停留于考虑具有恒定带宽的节点,并未充分考虑边缘网络的拓扑结构,并且忽视了不同的部署方案对带宽的影响。事实证明,不同的微服务部署方案会对业务流量之间的带宽竞争关系产生严重影响,例如当某些链路承载了过多流量时,会导致每个业务流的可用带宽显著下降,进而导致时延增大,而现有技术中并没有针对边缘网络拓扑结构的解决方案。
发明内容
本发明的目的是提供一种边缘网络拓扑感知的微服务部署方法,该方法能够根据边缘网络的拓扑结构和业务需求,优化微服务部署方案,有效降低边缘环境中的业务时延,提高了用户体验。
本发明的目的是通过以下技术方案实现的:
一种边缘网络拓扑感知的微服务部署方法,所述方法包括:
步骤1、针对边缘网络拓扑的业务调用关系,通过引入虚拟首部微服务和调用矩阵将业务调用关系转化为矩阵形式,并通过构建流量模型确定节点间的流量信息;
步骤2、基于所得到的节点间的流量信息,采用排队模型在节点层计算节点间的实际可用带宽;
步骤3、根据所得到的节点间的实际可用带宽和传播时延,在微服务层计算微服务实例之间的通信时延,并在业务层计算每个业务的平均通信时延;
步骤4、基于步骤3计算得到的通信时延确定优化目标和约束条件,建立优化模型;
步骤5、通过引入0-1变量表示在节点上是否部署微服务,采用启发式算法或强化学习算法求解步骤4所建立的优化模型,得到适合边缘网络拓扑的微服务部署方案。
由上述本发明提供的技术方案可以看出,上述方法能够根据边缘网络的拓扑结构和业务需求,优化微服务部署方案,有效降低边缘环境中的业务时延,提高了用户体验。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的边缘网络拓扑感知的微服务部署方法流程示意图;
图2为本发明实施例所述业务调用关系及虚拟首部微服务示意图;
图3为本发明实施例所述边缘环境中部署微服务的三层架构示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,这并不构成对本发明的限制。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
下面将结合附图对本发明实施例作进一步地详细描述。本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。本发明实施例中未注明具体条件者,按照本领域常规条件或制造商建议的条件进行。
如图1所示为本发明实施例提供的边缘网络拓扑感知的微服务部署方法流程示意图,所述方法包括:
步骤1、针对边缘网络拓扑的业务调用关系,通过引入虚拟首部微服务和调用矩阵将业务调用关系转化为矩阵形式,并通过构建流量模型确定节点间的流量信息;
在该步骤中,如图2所示为本发明实施例所述业务调用关系及虚拟首部微服务示意图,图中节点Mi代表第i类微服务,节点间边上的数字代表微服务间的调用顺序。通过引入虚拟首部微服务和调用矩阵将业务调用关系转化为矩阵形式。
如图3所示为本发明实施例所述边缘环境中部署微服务的三层架构示意图,图3中包括业务层、微服务层和边缘节点层,具体是在微服务层通过构建的流量模型得到微服务实例之间的调用概率和流量大小,然后在节点层基于网络拓扑和路由转发关系,得到任意节点间的流量信息,具体过程为:
假设网络中有节点能与用户进行通信并转发用户请求,将这些节点称为接入节点,用户的请求始终通过接入节点到达,为了描述用户请求到首部微服务的通信过程,其中首部微服务是业务需要首先调用的微服务,定义一类特殊的微服务M0,该微服务M0不占用节点的计算资源,并且每个接入节点上均部署有一个微服务M0,作为每个业务的虚拟首部微服务;
采用Fi,j表示从微服务Mi到微服务Mj的一次调用;Ri,j表示从微服务Mi到微服务Mj的一次响应;定义Fk为业务Wk的调用矩阵,其中表示执行业务Wk时从微服务Mi到微服务Mj的调用次数;类似地,定义Rk为业务Wk的响应矩阵,具体表示为:
考虑到同一微服务可能存在多个实例的情况,因此本发明考虑多个实例间采用轮询的调度算法,对于非虚拟首部微服务而言,在需要调用微服务Mi时,每个实例Mi,a被访问的概率是相同的,即:
对于i等于0的情况,实际取决于每个接入节点的业务到达率;
表示执行业务Wk,每次需要调用微服务Mi时,选择实例Mi,a的概率,设表示每次业务Wk被调用时,实例Mi,a调用实例Mj,b的平均次数,则有:
设Reqi,j为微服务Mi调用微服务Mj时请求数据的平均大小;表示每次业务Wk被调用时,实例Mi,a向Mj,b请求的平均数据大小,则有:
类似的,设表示每次业务Wk被调用时,实例Mi,a对实例Mj,b响应的平均次数;Resi,j为微服务Mi到微服务Mj的响应数据平均大小;/>表示每次业务Wk被调用时,实例Mi,a对实例Mj,b响应的平均数据大小;由于每一次的请求和响应是一一对应的,所以有:
假设任意业务Wk在每个接入节点的到达均符合泊松分布,设接入点的集合为对于接入节点/>业务Wk的到达服从参数为/>的泊松分布,则对于系统整体,业务Wk服从参数为λk的泊松分布,其中:
表示实例Mi,a所部署的节点,对于虚拟首部微服务M0的实例,在业务Wk的一次执行过程中,实例M0,a被调用的概率为:
所以在执行业务Wk时,每次调用微服务Mi,实例Mi,a被选中的概率为:
对于边缘网络中的任意两个节点Np和Nq,定义以Np为源节点,Nq为目的节点的流量为直接流量Γpq;当Np和Nq为相邻节点时,定义两节点间的包括直接发送和转发的全部数据流量为总流量
表示节点Np上的微服务实例集合,对于边缘网络中的任意两个节点Np和Nq,在执行一次业务Wk时,两节点间的直接流量为:
设边缘网络中业务的集合为那么单位时间内,两节点的直接流量为:
使用Up,q表示从节点Np到节点Nq的路由转发路径,其中<Nx,Ny>∈Up,q表示转发路径中的一跳;由于同一节点上的微服务之间的通信是通过总线传输的,其传输速率远高于节点之间的信道传输速率,因此在所构建的模型中可以忽略同一节点上的通信,当p=q时,Up,q为空集;
设节点的集合为则节点Np与Nq之间的总流量表示为:
步骤2、基于所得到的节点间的流量信息,采用排队模型在节点层计算节点间的实际可用带宽;
在该步骤中,鉴于多业务并行时带宽的共享问题,采用排队模型来分析任意相邻节点的可用带宽,假设节点Np向Nq发送的数据包到达服从泊松分布,并且每个有向链路同一时间只能处理一个数据包,则将节点间的包发送过程视作M/M/1排队模型;
假设排队模型中的数据包大小均为s,Zp,q表示节点Np到Nq的带宽,那么节点Np发往Nq的数据包的到达率和服务率分别定义为λp,q和μp,q,那么每个数据包平均需要的发送时间计算如下:
那么节点Np到节点Nq的平均可用带宽Z′p,q表示为:
其中,表示节点Np与Nq之间的总流量。
步骤3、根据所得到的节点间的实际可用带宽和传播时延,在微服务层计算微服务实例之间的通信时延,并在业务层计算每个业务的平均通信时延;
在该步骤中,对于任意节点Np和Nq,使用Vp,q来表示它们之间的传播时延,假设节点间采用全双工通信,并且不考虑中间节点的转发时间,则任意两节点间的总传播时延计算如下:
其中,Up,q表示从节点Np到节点Nq的路由转发路径;<Nx,Ny>∈Up,q表示路由转发路径中的一跳;Vx,y表示节点x到节点y的传播时延;
表示从节点Np到节点Nq的各个转发路径的最小可用吞吐量,那么微服务实例Mi,a的请求发送到实例Mj,b的平均通信时延/>计算如下:
类似地,微服务实例Mi,a的响应发送到实例Mj,b的平均通信时延计算如下:
则业务Wk每次执行时的平均通信时延Tk表示为:
步骤4、基于步骤3计算得到的通信时延确定优化目标和约束条件,建立优化模型;
在该步骤中,考虑到边缘网络的不同业务对时延的敏感度不同,将每个业务的平均通信时延定义为每一类业务平均通信时延的加权和,设业务Wk的通信时延权重为θk;那么每个业务的平均通信时延计算如下:
则优化模型表述为:在给定业务集合为微服务集合/>和节点集合/>的情况下,通过调节微服务实例的部署位置/>最小化系统的平均通信时延T,即:
并定义如下约束条件:
其中,约束条件(21a)和(21b)分别表示单个节点上部署的微服务实例CPU和内存资源的总需求量不应超过节点的资源总量;约束条件(21c)表示任意相邻两节点间的平均流量不能超过带宽上限。
步骤5、通过引入0-1变量表示在节点上是否部署微服务,采用启发式算法或强化学习算法求解步骤4所建立的优化模型,得到适合边缘网络拓扑的微服务部署方案。
在该步骤中,考虑同一类微服务不会在同一个节点上同时部署多个实例,这种尽量将实例尽可能分布在多个节点上的做法可以进一步保障边缘服务的可用性,具体是使用0-1变量Gp,i∈G来表示在节点Np上是否部署微服务Mi,其中G是一个大小为的矩阵;/>为微服务集合,/>为节点集合;
用Mp,i来表示位于节点Np上的微服务Mi的实例,以唯一表示一个微服务实例,因此式(11)表示为:
对于拓扑关系同样可以使用矩阵的形式表示,定义来表示从节点Nx到节点Ny的路径中是否经过了Np到Nq这一跳,因此式(13)表示为:
类似地,式(14)表示为:
式(17)和式(18)分别表示为:
式(19)表示为:
对于式(27),和/>均为常量,与微服务部署的位置无关;和/>以及Reqi,j、Resi,j和/>同样为常量;而/>是关于G的方程,表示为一个大小为/>的二次方程;
最后,目标T是Tk的加权和,其中权重已知,因此优化模型表示为如下形式:
约束条件表示为:
其中,f(G)和g(G)均为关于G的元二次方程;
约束条件(28a)表示每一类微服务的实例数目均应满足要求,因此共有个等式约束;约束条件(28b)表示每个节点上最多只能部署一个同类微服务实例;约束条件(28c)和约束条件(28d)分别代表每个节点上部署的微服务计算和内存资源总和不能超过对应的节点的资源上限;约束条件(28e)代表每条链路上的平均带宽需求不能超过这条链路的带宽上限。
具体实现中,在边缘环境中部署微服务时,微服务和节点的数目都较大,为了求解这个问题,可以采用启发式算法(如遗传算法、粒子群算法)或者强化学习等方法求解所建立的优化模型,从而在大规模问题中高效地找到较优解。
举例来说,以遗传算法为例,求解过程如下:
1、使用二进制编码,每个染色体代表一个部署方案,每个染色体上有个基因,分别表示每类微服务Mi的部署方案。1代表在对应节点上部署此类型的微服务,0代表不部署。
2、使用每个个体其染色体所代表的部署方案的系统的业务平均通信时延T取反,作为此个体的适应度函数。
3、随机初始种群。
4、计算当前种群的每个个体的适应度。
5、从种群中随机抽取两组个体,分别取两组个体中适应度最高的两个个体作为父体,随机交换两个父体的基因,产生新一代个体。
6、对新产生的个体执行随机变异操作,按照一定概率对随机基因上的编码进行随机翻转。
7、重复步骤5和步骤6直到产生新一代种群数目满足要求。
8、重复步骤4-7,记录最优部署方案,直到达到最大迭代次数。
最终得到的部署方案综合考虑了微服务的资源需求和边缘拓扑结构,能够合理地为每一个微服务实例选择部署节点,有效降低边缘环境中各个业务的平均通信时延,提高用户体验。
值得注意的是,本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
综上所述,本发明实施例所述方法具有如下优点:
(1)基于概率模型分析微服务间的调用,能够有效处理微服务之间的各种复杂依赖关系,提高系统的可靠性和稳定性;
(2)该方案能够充分考虑边缘网络的拓扑结构,更适合边缘设备位置分散的场景环境,能够有效减少通信距离和网络延迟,提高边缘服务的响应速度;
(3)通过优化微服务部署方案,可以显著降低边缘业务的时延,提高用户的体验质量,减少通信延迟可以提高实时性和交互性,使用户能够更快地获得响应和结果;
(4)本方案在微服务架构下的边缘计算环境中具备多种有益效果,提高了系统性能和用户体验,推动了边缘计算的应用和发展。
另外,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件完成,相应的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。本文背景技术部分公开的信息仅仅旨在加深对本发明的总体背景技术的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域技术人员所公知的现有技术。

Claims (6)

1.一种边缘网络拓扑感知的微服务部署方法,其特征在于,所述方法包括:
步骤1、针对边缘网络拓扑的业务调用关系,通过引入虚拟首部微服务和调用矩阵将业务调用关系转化为矩阵形式,并通过构建流量模型确定节点间的流量信息;
步骤2、基于所得到的节点间的流量信息,采用排队模型在节点层计算节点间的实际可用带宽;
步骤3、根据所得到的节点间的实际可用带宽和传播时延,在微服务层计算微服务实例之间的通信时延,并在业务层计算每个业务的平均通信时延;
步骤4、基于步骤3计算得到的通信时延确定优化目标和约束条件,建立优化模型;
步骤5、通过引入0-1变量表示在节点上是否部署微服务,采用启发式算法或强化学习算法求解步骤4所建立的优化模型,得到适合边缘网络拓扑的微服务部署方案。
2.根据权利要求1所述边缘网络拓扑感知的微服务部署方法,其特征在于,在步骤1中,具体是在微服务层通过构建的流量模型得到微服务实例之间的调用概率和流量大小,然后在节点层基于网络拓扑和路由转发关系,得到任意节点间的流量信息,具体来说:
假设网络中有节点能与用户进行通信并转发用户请求,将这些节点称为接入节点,用户的请求始终通过接入节点到达,为了描述用户请求到首部微服务的通信过程,其中首部微服务是业务需要首先调用的微服务,定义一类特殊的微服务M0,该微服务M0不占用节点的计算资源,并且每个接入节点上均部署有一个微服务M0,作为每个业务的虚拟首部微服务;
采用Fi,j表示从微服务Mi到微服务Mj的一次调用;Ri,j表示从微服务Mi到微服务Mj的一次响应;定义Fk为业务Wk的调用矩阵,其中表示执行业务Wk时从微服务Mi到微服务Mj的调用次数;类似地,定义Rk为业务Wk的响应矩阵,具体表示为:
对于非虚拟首部微服务而言,在需要调用微服务Mi时,每个实例Mi,a被访问的概率是相同的,即:
对于i等于0的情况,实际取决于每个接入节点的业务到达率;
表示执行业务Wk,每次需要调用微服务Mi时,选择实例Mi,a的概率,设/>表示每次业务Wk被调用时,实例Mi,a调用实例Mj,b的平均次数,则有:
设Reqi,j为微服务Mi调用微服务Mj时请求数据的平均大小;表示每次业务Wk被调用时,实例Mi,a向Mj,b请求的平均数据大小,则有:
类似的,设表示每次业务Wk被调用时,实例Mi,a对实例Mj,b响应的平均次数;Resi,j为微服务Mi到微服务Mj的响应数据平均大小;/>表示每次业务Wk被调用时,实例Mi,a对实例Mj,b响应的平均数据大小;由于每一次的请求和响应是一一对应的,所以有:
假设任意业务Wk在每个接入节点的到达均符合泊松分布,设接入点的集合为对于接入节点/>业务Wk的到达服从参数为/>的泊松分布,则对于系统整体,业务Wk服从参数为λk的泊松分布,其中:
表示实例Mi,a所部署的节点,对于虚拟首部微服务M0的实例,在业务Wk的一次执行过程中,实例M0,a被调用的概率为:
所以在执行业务Wk时,每次调用微服务Mi,实例Mi,a被选中的概率为:
对于边缘网络中的任意两个节点Np和Nq,定义以Np为源节点,Nq为目的节点的流量为直接流量Γpq;当Np和Nq为相邻节点时,定义两节点间的包括直接发送和转发的全部数据流量为总流量
表示节点Np上的微服务实例集合,对于边缘网络中的任意两个节点Np和Nq,在执行一次业务Wk时,两节点间的直接流量为:
设边缘网络中业务的集合为那么单位时间内,两节点的直接流量为:
使用Up,q表示从节点Np到节点Nq的路由转发路径,其中<Nx,Ny>∈Up,q表示转发路径中的一跳;当p=q时,Up,q为空集;
设节点的集合为则节点Np与Nq之间的总流量表示为:
3.根据权利要求2所述边缘网络拓扑感知的微服务部署方法,其特征在于,在步骤2中,鉴于多业务并行时带宽的共享问题,采用排队模型来分析任意相邻节点的可用带宽,假设节点Np向Nq发送的数据包到达服从泊松分布,并且每个有向链路同一时间只能处理一个数据包,则将节点间的包发送过程视作M/M/1排队模型;
假设排队模型中的数据包大小均为s,Zp,q表示节点Np到Nq的带宽,那么节点Np发往Nq的数据包的到达率和服务率分别定义为λp,q和μp,q,那么每个数据包平均需要的发送时间计算如下:
那么节点Np到节点Nq的平均可用带宽Zp,q表示为:
其中,表示节点Np与Nq之间的总流量。
4.根据权利要求3所述边缘网络拓扑感知的微服务部署方法,其特征在于,在步骤3中,对于任意节点Np和Nq,使用Vp,q来表示它们之间的传播时延,假设节点间采用全双工通信,并且不考虑中间节点的转发时间,则任意两节点间的总传播时延计算如下:
其中,Up,q表示从节点Np到节点Nq的路由转发路径;<Nx,Ny>∈Up,q表示路由转发路径中的一跳;Vx,y表示节点x到节点y的传播时延;
表示从节点Np到节点Nq的各个转发路径的最小可用吞吐量,那么微服务实例Mi,a的请求发送到实例Mj,b的平均通信时延/>计算如下:
类似地,微服务实例Mi,a的响应发送到实例Mj,b的平均通信时延计算如下:
则业务Wk每次执行时的平均通信时延Tk表示为:
5.根据权利要求4所述边缘网络拓扑感知的微服务部署方法,其特征在于,在步骤4中,将每个业务的平均通信时延定义为每一类业务平均通信时延的加权和,设业务Wk的通信时延权重为θk;那么每个业务的平均通信时延计算如下:
则优化模型表述为:在给定业务集合为微服务集合/>和节点集合/>的情况下,通过调节微服务实例的部署位置/>最小化系统的平均通信时延T,即:
并定义如下约束条件:
其中,约束条件(21a)和(21b)分别表示单个节点上部署的微服务实例CPU和内存资源的总需求量不应超过节点的资源总量;约束条件(21c)表示任意相邻两节点间的平均流量不能超过带宽上限。
6.根据权利要求5所述边缘网络拓扑感知的微服务部署方法,其特征在于,在步骤5中,具体是使用0-1变量Gp,i∈G来表示在节点Np上是否部署微服务Mi,其中G是一个大小为的矩阵;/>为微服务集合,/>为节点集合;
用Mp,i来表示位于节点Np上的微服务Mi的实例,以唯一表示一个微服务实例,因此式(11)表示为:
定义来表示从节点Nx到节点Ny的路径中是否经过了Np到Nq这一跳,因此式(13)表示为:
类似地,式(14)表示为:
式(17)和式(18)分别表示为:
式(19)表示为:
对于式(27),和/>均为常量,与微服务部署的位置无关;/>以及Reqi,j、Resi,j和/>同样为常量;而/>是关于G的方程,表示为一个大小为/>的二次方程;
最后,目标T是Tk的加权和,其中权重已知,因此优化模型表示为如下形式:
约束条件表示为:
其中,f(G)和g(G)均为关于G的元二次方程;
约束条件(28a)表示每一类微服务的实例数目均应满足要求,因此共有个等式约束;约束条件(28b)表示每个节点上最多只能部署一个同类微服务实例;约束条件(28c)和约束条件(28d)分别代表每个节点上部署的微服务计算和内存资源总和不能超过对应的节点的资源上限;约束条件(28e)代表每条链路上的平均带宽需求不能超过这条链路的带宽上限。
CN202311038672.7A 2023-08-17 2023-08-17 一种边缘网络拓扑感知的微服务部署方法 Pending CN117119043A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311038672.7A CN117119043A (zh) 2023-08-17 2023-08-17 一种边缘网络拓扑感知的微服务部署方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311038672.7A CN117119043A (zh) 2023-08-17 2023-08-17 一种边缘网络拓扑感知的微服务部署方法

Publications (1)

Publication Number Publication Date
CN117119043A true CN117119043A (zh) 2023-11-24

Family

ID=88795808

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311038672.7A Pending CN117119043A (zh) 2023-08-17 2023-08-17 一种边缘网络拓扑感知的微服务部署方法

Country Status (1)

Country Link
CN (1) CN117119043A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117692503A (zh) * 2024-02-04 2024-03-12 国网湖北省电力有限公司信息通信公司 动态微服务图部署和概率请求路由的联合优化方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117692503A (zh) * 2024-02-04 2024-03-12 国网湖北省电力有限公司信息通信公司 动态微服务图部署和概率请求路由的联合优化方法及系统
CN117692503B (zh) * 2024-02-04 2024-04-26 国网湖北省电力有限公司信息通信公司 动态微服务图部署和概率请求路由的联合优化方法及系统

Similar Documents

Publication Publication Date Title
Guo et al. Energy-efficient and delay-guaranteed workload allocation in IoT-edge-cloud computing systems
Phan et al. Dynamic fog-to-fog offloading in SDN-based fog computing systems
Qu et al. Delay-aware scheduling and resource optimization with network function virtualization
JP6093867B2 (ja) インターコネクトにおける不均一なチャネル容量
CN111130858B (zh) 一种sd-wan场景下的动态多目标虚拟网络映射方法
US20080120081A1 (en) Modeling and simulating flow propagation in dynamic bandwidth systems
US10356185B2 (en) Optimal dynamic cloud network control
KR20080114772A (ko) 무선 메쉬 네트워크들에서 트래픽 변화를 처리하기 위한 링크 전송 스케쥴링을 위한 방법 및 장치
CN109614215A (zh) 基于深度强化学习的流调度方法、装置、设备及介质
CN113032096B (zh) 一种基于节点重要性与用户需求双感知的sfc映射方法
Tajiki et al. CECT: computationally efficient congestion-avoidance and traffic engineering in software-defined cloud data centers
Magoula et al. A genetic algorithm approach for service function chain placement in 5G and beyond, virtualized edge networks
Ogino et al. Virtual network embedding with multiple priority classes sharing substrate resources
Botero et al. A novel paths algebra-based strategy to flexibly solve the link mapping stage of VNE problems
Zhu et al. Edgechain: Blockchain-based multi-vendor mobile edge application placement
Li et al. Joint virtual network topology design and embedding for cybertwin-enabled 6G core networks
CN117119043A (zh) 一种边缘网络拓扑感知的微服务部署方法
CN114071582A (zh) 面向云边协同物联网的服务链部署方法及装置
CN106130931A (zh) 弹性光网络中基于进化多目标的路由频隙分配方法
Quang et al. Evolutionary actor-multi-critic model for VNF-FG embedding
CN115529316A (zh) 一种基于云计算中心网络架构的微服务部署方法
CN101651600B (zh) 网格网络中更新链路代价的方法和装置
Lin et al. Column generation based service function chaining embedding in multi-domain networks
CN110958666B (zh) 基于强化学习的网络切片资源映射方法
Yu et al. Profit maximization of online service function chain orchestration in an inter-datacenter elastic optical network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination