CN116684472A - 一种面向端侧算力网络的服务部署系统及其服务部署方法 - Google Patents
一种面向端侧算力网络的服务部署系统及其服务部署方法 Download PDFInfo
- Publication number
- CN116684472A CN116684472A CN202310510626.6A CN202310510626A CN116684472A CN 116684472 A CN116684472 A CN 116684472A CN 202310510626 A CN202310510626 A CN 202310510626A CN 116684472 A CN116684472 A CN 116684472A
- Authority
- CN
- China
- Prior art keywords
- service
- micro
- information
- side computing
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 230000004044 response Effects 0.000 claims description 53
- 238000012544 monitoring process Methods 0.000 claims description 44
- 230000005540 biological transmission Effects 0.000 claims description 29
- 238000010586 diagram Methods 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 13
- 238000007726 management method Methods 0.000 claims description 12
- 238000005206 flow analysis Methods 0.000 claims description 10
- 238000011144 upstream manufacturing Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000006855 networking Effects 0.000 claims description 4
- 238000010223 real-time analysis Methods 0.000 claims description 4
- 239000006185 dispersion Substances 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 3
- 230000000452 restraining effect Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 8
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/51—Discovery or management thereof, e.g. service location protocol [SLP] or web services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/142—Network analysis or design using statistical or mathematical methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Pure & Applied Mathematics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及一种面向端侧算力网络的服务部署系统及其服务部署方法,所述服务部署系统,包含:资源监控与分析模块、微服务性能监控与分析模块、流量分析与预测模块、服务部署模块,所述所述面向端侧算力网络的服务部署方法,包括:步骤1,在面向端侧算力网络的服务部署系统中,端侧算力设备被分为多个组,每个组包括一个主控节点,负责管理组内的信息收集计算与服务部署决策等,本发明所述服务部署系统及其服务部署方法,具有面向端侧算力网络场景,提供了所述面向端侧算力网络的服务部署系统,通过部署在各个端侧算力设备上的监控模块,主控节点能够迅速掌握管理范围内的算网信息,并对微服务架构下实例之间的调用进行准确建模。
Description
技术领域
本发明涉及无线通信技术领域,尤其涉及一种面向端侧算力网络的服务部署系统及其服务部署方法。
背景技术
随着车联网、智慧城市、VR/AR的发展和终端技术的进步,终端设备的计算和存储能力正在不断进步,其业务总量和多样性也在不断增长,带来了大量的计算密集型和时延敏感型任务需求。面对传统云计算无法及时处理如此海量和广泛分布任务请求的问题,算力网络通过融合了端-边-云三级的算网信息,充分利用了网络中闲置的算力和带宽资源,为用户提供了实时便捷的算力服务。在算力网络的研究中,业界和学术界已经对边侧和云侧算力网络以及二者的联合提出了许多架构、算法等一系列解决方案,然而基于微服务架构的广泛应用和终端设备日益智能化,端侧算力网络呈现出巨大的潜力,在这方面目前的研究还较为空白。微服务架构和虚拟化技术是影响算力网络技术落地的两大关键因素,通过将单体程序分解为逻辑相连但开发相对独立的微服务,并基于容器等虚拟化技术运行于平台无关的设备上,使得单个应用程序可以交由多个设备协作运行,因此极大得提高了部署和调度的灵活性,可以充分挖掘网络中算网碎片资源。Kubernetes作为当前最为主流的大规模集群容器编排工具,提出了以Pod为基本调度单位的全自动化运维方案,为算力网络的构建提供了一站式的技术底座。尽管Kubernetes的设计之初面向的是资源丰富的云计算场景,目前对于资源受限的边缘甚至是端侧场景已经有了多种解决方案,如针对资源受限场景开发的k3s和多集群间分布式管控技术,使得K8s架构理念向端侧的渗透成为资源开拓的一片蓝海。在解决技术底座的基础上,端侧算力设备间服务部署自然成为制约端侧算力网络效率的首要因素。对比边侧和云侧算力网络,端侧算力网络在算网规模、存算水平和差异性上面临更大的挑战,具体来说,端侧算力设备的整体存算水平相对更低,不同设备间存算水平以及通信速率差异度更高,设备之间组网结构更复杂。同时,不同服务的微服务间错综复杂的调用关系叠加用户差异化的需求,都为端侧算力网络中服务部署提高了难度,因此需要一种综合微服务特性、网络结构、微服务调用结构等因素的服务部署方案,降低端侧算网的时延及能耗等开销。
在现有公开的专利申请技术中,例如中国专利申请号CN202111266586.2涉及一种面向网关设备的算力网络服务系统及方法,涉及通信技术领域,该系统包括:网关设备、若干算力服务节点和算力网络调度管理平台;所述网关设备与所述算力网络调度管理平台通信连接,并在建立偶联后,与对应的所述算力服务节点建立通信链路;所述算力网络调度管理平台与所述算力服务节点通信连接,所述算力网络调度管理平台向所述网关设备发送算力服务节点列表;所述网关设备基于所述算力服务节点的算力服务信息更新所述算力服务节点列表,并将更新后的所述算力服务节点列表发送给所述算力网络调度管理平台。本发明可以以此来维护网关设备与算力服务节点之间的偶联状态,并实现区域内算力服务节点的实时获取。
又例如,中国专利申请号CN202210876682.7公开了一种基于算力网络交易区块链的信息处理方法及装置,包括:响应于接收到消费端提交的算力网络交易请求信息,调用算力网络交易公共区块链的公链智能合约,算力网络交易公共区块链为关联算力网络供应端的相关信息的区块链;基于公链智能合约,确定与请求信息对应的交易目标供应端;触发与交易目标供应端对应的私有区块链中的私链智能合约,执行请求信息;将与请求信息对应的交易信息分别记录在算力网络交易公共区块链和交易目标供应端对应的私有区块链。本发明能够基于算力网络交易公共区块链以及与每一算力网络供应端对应的私有区块链对算力网络交易信息进行自动匹配和记录,保证了算力网络交易可追溯以及交易信息的安全性。
再例如,中国专利申请号CN202211272409.X提出一种应用与算力网络融合方法,其特征在于,包括:获得待获得的应用信息;基于所述应用信息获得应用与算力网络融合模型输出的与所述应用信息适配的至少一种算力网络资源的计费方法及规则;基于所述至少一种算力网络资源的计费方法及规则选择所述至少一种算力网络资源中的第一算力网络资源;基于所述第一算力网络资源的规则为所述待获得的应用提供算力。
上述公开的发明专利申请技术,均没有提出一种综合微服务特性、网络结构、微服务调用结构等因素的服务部署技术解决方案,以有效降低端侧算网的时延及能耗等开销问题。
发明内容
为了解决上述问题,本发明针对现有边缘服务调度技术解决方案存在的不足之处,提供一种面向端侧算力网络的服务部署系统及其服务部署方法。
所述面向端侧算力网络的服务部署系统,包含资源监控与分析模块、微服务性能监控与分析模块、流量分析与预测模块、服务部署模块,其中:
资源监控与分析模块:负责对端侧算力设备的可用资源总量和资源使用情况进行整合和分析,用于支撑服务部署的决策,包含端侧算力设备的存算资源与网络资源监控子模块和主控节点的资源分析与建模子模块,存算资源与网络资源监控子模块部署在每个端侧算力设备上,用于收集各端侧算力设备的可用存算资源总量(包含但不限于CPU资源、内存资源)、网络通信速率和网络连接目标IP,并实时上报至主控节点,主控节点的资源分析与建模子模块用于收集并整合各端侧算力设备上报的资源信息,构建端侧算网模型,包括端侧算力网络中诸节点的各类可用资源总量、网络拓扑结构、网络通信速率,以支撑服务部署的资源感知;
微服务监控与分析模块:包含部署于各端侧算力设备的微服务监控与分析子模块和部署于主控节点的微服务响应模型汇总子模块,其中,微服务监控与分析子模块用于采集各端侧算力设备的微服务运行信息,并根据采集信息对微服务响应特性进行建模,为微服务部署提供特性信息,基于端侧算力设备实时的资源利用率(CPU资源利用率、内存资源利用率等),统计并分析对微服务实例响应特性的影响情况,并基于采集信息可使用但不限于最小二乘、神经网络等方法得到拟合模型。最后将拟合模型的参数实时上报至主控节点进行整理,得到端侧算力网络图中各节点上运行微服务的特性信息;
流量分析与预测模块:统计各节点的流量转发信息,并基于历史服务请求信息对各端侧算力设备或接入节点的业务流量进行分析和预测,对于每一种服务均由多个微服务构成,每个微服务提供上游微服务和下游微服务,由于端侧算力设备资源的有限性,需要多个端侧算力设备的协同以实现一项服务的高效运行,即对处于其它端侧算力设备上的下游微服务,需要在端侧算力网络中存在的多个实例中选择并进行转发,通过对转发信息的统计,以获得微服务不同实例之间调用的详细信息,在业务流量分析与预测中,主控节点基于历史的服务请求信息(包括但不限于服务类型、时间、发起IP)建立预测模型,并预测未来一段时间窗内各端侧算力设备的业务请求量;
服务部署模块:利用收集的算力网络与服务信息,生成并执行服务部署策略,基于主控节点的Kubernetes Scheduler进行扩展,提出一种基于Gibbs采样的服务部署算法,定期更新端侧算力网络中算网建模信息和微服务响应特性,并根据未来一定时间窗内的预测信息获取微服务实例需求,基于上述信息生成服务部署决策并下发至各端侧算力设备执行,在服务部署决策的计算过程中,考虑了端侧算力网络的复杂性,包括端侧算力设备之间复杂的组网拓扑与差异化的通信速率、不同端侧算力设备异构差异化的算力资源以及微服务实例的响应特性,降低了端侧算力设备的运行开销和传输开销,均衡了各端侧算力设备的实例负载。
基于所述面向端侧算力网络的服务系统,本发明另提供一种面向端侧算力网络的服务部署方法,所述面向端侧算力网络的服务部署方法,包括如下步骤:
步骤1,在面向端侧算力网络的服务部署系统中,端侧算力设备被分为多个组,每个组包括一个主控节点,负责管理组内的信息收集计算与服务部署决策,其中,在服务部署决策中,通过主控节点部署资源分析与建模子模块、微服务响应模型汇总子模块、流量分析与预测模块与服务部署模块、及其它端侧算力设备部署资源监控子模块、微服务监控与分析子模块与Kubelet节点代理定期对部署决策进行更新,端侧算力设备部署的资源监控子模块和微服务监控与分析子模块采集端侧算力设备的资源信息和微服务实例响应信息并更新拟合参数,最终将资源信息和结果参数上报至主控节点;
步骤2,主控节点开放对应信息接收端口,根据汇总信息对端侧算力设备资源信息、微服务响应信息进行实时分析,建立算网模型和微服务响应特性模型;
步骤3,主控节点建立不同业务的微服务调用结构图,并根据用户请求的历史数据训练预测模型,预测未来一定时间窗内各端侧算力设备的多种服务请求的流量信息,并据此计算出各微服务实例需求,最后根据不同微服务实例间转发历史数据量和微服务自身特性信息建立微服务调用模型;
步骤4,主控节点运行服务部署算法,计算最优的部署策略;
步骤5,将生成的最优的部署策略下发至各个端侧算力设备的Kubelet执行,Kubelet根据部署结果更新端侧算力设备所部署的微服务实例,并维护其运行。
进一步地,步骤1包括:
步骤1.1、端侧算力设备的资源监控子模块按照预先设定的采样频率,采集端侧算力设备的资源信息(包括CPU资源、内存资源、网络节点速率、连接目标IP),并将信息打包压缩后上传至主控节点;
步骤1.2、端侧算力设备的微服务监控与分析子模块统计端侧算力设备每一时刻的CPU资源利用率、内存资源利用率以及微服务实例对于每次请求的响应特性,并根据采集信息训练拟合模型,最后将模型参数上传至主控节点;
进一步的,步骤2包括:
2.1、主控节点开放信息收集接口,收集管理范围内各端侧算力设备的可用资源量以及端侧算力设备间的连接拓扑和网络速率,以端侧算力设备为节点,端侧算力设备间网络连接为边建立算网模型;
2.2、主控节点根据收集的各端侧算力设备的模型参数生成对于算网模型中每一个端侧算力设备的响应特性描述,建立微服务响应特性模型,微服务响应模型表示为下式(1):
上式(1)中:Fi为第i个端侧算力设备上的微服务当前任务请求所需计算量,fi为分配的CPU资源的计算频率,Rci为计算资源利用率,Rsi为内存资源利用率,gi()为以上述参数为自变量的函数,计算当前任务请求的响应时延,上式中,将资源利用率升高对响应时延的影响表示为线性函数。
进一步地,步骤3包括:
3.1,主控节点建立不同业务的微服务调用结构图,每一种业务被分解为多个微服务,微服务间的调用关系建模为一个有向图,其中,节点表示微服务类型,边表示微服务之间调用结构和传输数据量,为了进行统一建模与计算,将端侧算力设备设置为虚节点,此时有向图中每个节点表示一个微服务实例或端侧算力设备,并令l(vi)∈{cli1,cli2,...,cliN,ms1,ms2,...,msM}表示该节点属于的端侧算力设备或微服务种类,其中,vi表示微服务调用结构图中第i个节点,clii表示该节点数据第i个端侧算力设备,msi表示该节点数据第i类微服务;
3.2,根据流量预测结果信息和历史数据,基于排队论确定未来一定时间窗内各个类型微服务所需实例数量,进而扩充微服务调用结构图中各节点数量,用户业务请求输入被视为一个泊松过程,服务时间的分布根据历史数据计算其标准差和平均服务时间,此时对于每个类型的微服务视为M/G/m排队系统,以限制平均排队时延的最大值,以此计算出对应的m,即各个类型微服务实例数量,并将微服务调用结构图中对应节点扩充为m个,即根据流量预测结果信息得到第i个端侧算力的第j类业务的用户访问率λi,j,第k种微服务所需实例数量为根据散近似改善模型进行计算,如下式(2):
上式(2)中:W(M/G/m)表示平均排队时延,ρ表示服务强度,π0,θm,rm均为与以及平均服务时间、服务时间标准差等有关的中间变量,通过约束W(M/G/m),计算出最小所需实例数量/>
3.3、根据计算得到的微服务实例需求,预估各个实例间转发概率,预估过程中保证同一个上游实例对于所有下游实例的转发概率和为1,以确定单位时间内微服务调用结构图中各节点间传输数据量,最终得到完整的微服务调用模型。
进一步地,步骤4包括:
步骤4.1、首先根据前述步骤的建模结果建立微服务实例与算网模型节点之间以及微服务间传输数据量与算网模型中网络传输速率之间的开销模型如下(3):
上式(3)中:c1,c2表示开销系数,优化目标公式前半部分表示数据传输开销,后半部分表示因端侧算力设备资源利用率升高对响应时延影响引起的开销,Xp,m为决策变量(0-1变量),限定一个微服务实例只能部署于一个端侧算力设备,并且单个端侧算力设备上部署的实例占用资源不超过资源上限;
步骤4.2,根据最优的部署策略,在端侧算力设备资源约束下执行服务部署算法,当同一端侧算力设备部署的微服务实例数量过多时,将使资源利用率上升的同时,不同实例间对资源抢占的冲突加重,增加响应时延,导致端侧算力设备开销的增加,另一方面,一对上下游微服务实例部署在不同的端侧算力设备上时,端侧算力设备之间网络传输速率与该实例对间传输数据量会影响传输时延的大小,同样导致端侧算力设备传输开销的增加,为此,在服务部署过程中需要权衡二者的开销,同时考虑资源的限制与部署的位置,以生成最优的部署策略;
本发明所述面向端侧算力网络的服务部署系统及其服务部署方法具有以下有益效果:
1.在本发明中,面向端侧算力网络场景,提供了所述面向端侧算力网络的服务部署系统,通过部署在各个端侧算力设备上的监控模块,主控节点能够迅速掌握管理范围内的算网信息,并对微服务架构下实例之间的调用进行准确建模,在主控节点上,基于Kubernetes Scheduler进行扩展,在其服务部署过程中不仅考虑了节点资源的限制和导致的开销,还考虑了在微服务调用模型的有向图结构下不同部署位置对传输开销的影响,进而生成最小化开销的部署决策。
2.本发明通过在服务请求调度前优化服务部署策略,实现了在端侧算力网络资源受限性和差异性加大的场景下低开销的微服务实例部署,同时也降低了之后进行调度的时延,具有良好的可操作性和实用价值。
附图说明
图1为本发明所述面向端侧算力网络的服务部署系统的架构示意图;
图2为本发明面所述向端侧算力网络的服务部署方法的流程示意图;
图3为本发明所述面向端侧算力网络的服务部署方法中的步骤2的流程示意图;
图4为本发明所述面向端侧算力网络的服务部署方法中的步骤3的流程示意图;
图5为本发明所述面向端侧算力网络的服务部署方法中的步骤4的流程示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合说明书附图对本发明所述面向端侧算力网络的服务部署系统及其服务部署方法的技术方案做进一步详细说明。
如图1所示,一种面向端侧算力网络的服务部署系统,包含资源监控与分析模块、微服务监控与分析模块、流量分析与预测模块、服务部署模块,其中:
资源监控与分析模块:负责对端侧算力设备的可用资源总量和资源使用情况进行整合和分析,用于支撑服务部署的决策,包含端侧算力设备的存算资源与网络资源监控子模块和主控节点的资源分析与建模子模块,存算资源与网络资源监控子模块部署在每个端侧算力设备上,用于收集各端侧算力设备的可用存算资源总量(包含但不限于CPU资源、内存资源)、网络通信速率和网络连接目标IP,并实时上报至主控节点,主控节点的资源分析与建模子模块用于收集并整合各端侧算力设备上报的资源信息,构建端侧算网模型,包括端侧算力网络中诸节点的各类可用资源总量、网络拓扑结构、网络通信速率,以支撑服务部署的资源感知;
微服务监控与分析模块,包含部署于各端侧算力设备的微服务监控与分析子模块和部署于主控节点的微服务响应模型汇总子模块,其中,微服务监控与分析子模块用于采集各端侧算力设备的微服务运行信息,并根据采集信息对微服务响应特性进行建模,为微服务部署提供特性信息,基于端侧算力设备实时的资源利用率(CPU资源利用率、内存资源利用率等),统计并分析对微服务实例响应特性的影响情况,并基于采集信息可使用但不限于最小二乘、神经网络等方法得到拟合模型,最后将拟合模型的参数实时上报至主控节点进行整理,得到端侧算力网络图中各节点上运行微服务的特性信息;
流量分析与预测模块:统计各节点的流量转发信息,并基于历史服务请求信息对各端侧算力设备或接入节点的业务流量进行分析和预测,对于每一种服务均由多个微服务构成,每个微服务提供上游微服务和下游微服务,由于端侧算力设备资源的有限性,需要多个端侧算力设备的协同以实现一项服务的高效运行,即对处于其它端侧算力设备上的下游微服务,需要在端侧算力网络中存在的多个实例中选择并进行转发,通过对转发信息的统计,以获得微服务不同实例之间调用的详细信息,在业务流量分析与预测中,主控节点基于历史的服务请求信息(包括但不限于服务类型、时间、发起IP)建立预测模型,并预测未来一段时间窗内各端侧算力设备的业务请求量;
服务部署模块:利用收集的算力网络与服务信息,生成并执行服务部署策略,基于主控节点的Kubernetes Scheduler进行扩展,并运行基于Gibbs采样的服务部署算法,定期更新端侧算力网络中算网建模信息和微服务响应特性,并根据未来一定时间窗内的预测信息获取微服务实例需求,基于上述信息生成服务部署决策并下发至各端侧算力设备执行,在服务部署决策的计算过程中,考虑了端侧算力网络的复杂性(包括端侧算力设备之间复杂的组网拓扑与差异化的通信速率)、不同端侧算力设备异构差异化的算力资源以及微服务实例的响应特性,降低了端侧算力设备的运行开销和传输开销,均衡了各端侧算力设备的实例负载。
如图1、图2所示,本发明另提供所述面向端侧算力网络的服务部署方法,包括以下步骤:
步骤1,在面向端侧算力网络的服务部署系统中,端侧算力设备被分为多个组,每个组包括一个主控节点,负责管理组内的信息收集计算与服务部署决策,其中,在服务部署决策中通过主控节点部署资源分析与建模子模块、微服务响应模型汇总子模块、流量分析与预测模块与服务部署模块、及其它端侧算力设备部署资源监控子模块、微服务监控与分析子模块与Kubelet节点代理定期对部署决策进行更新,端侧算力设备部署资源监控子模块和微服务监控与分析子模块采集端侧算力设备的资源信息和微服务实例响应信息并更新拟合参数,最终将资源信息和结果参数上报至主控节点,具体的:
步骤1.1、端侧算力设备的资源监控子模块按照预先设定的采样频率,采集端侧算力设备的资源信息,包括CPU资源、内存资源、网络节点速率、连接目标IP,并将采集端侧算力设备的资源信息打包压缩后上传至主控节点;
步骤1.2、端侧算力设备的微服务监控与分析子模块统计端侧算力设备每一时刻的CPU资源利用率、内存资源利用率以及微服务实例对于每次请求的响应特性,并根据采集信息训练拟合模型,最后将模型参数上传至主控节点;
步骤2,如图2所示,主控节点开放对应信息接收端口,根据汇总信息对端侧算力设备资源信息、微服务响应信息进行实时分析,建立算网模型和微服务响应特性模型,具体地:
2.1、主控节点开放信息收集接口,收集管理范围内各端侧算力设备的可用资源量以及端侧算力设备间的连接拓扑和网络速率,以端侧算力设备为节点,端侧算力设备间网络连接为边建立算网模型;
2.2、主控节点根据收集的各端侧算力设备的模型参数生成对于算网模型中每一个节点(代表端侧算力设备)的响应特性描述,建立微服务响应特性模型,并假设相应时延与资源利用利用率关系为线性关系为例,微服务响应模型表示为下式(1):
上式(1)中:Fi为第i个端侧算力设备上的微服务当前任务请求所需计算量,fi为分配的CPU资源的计算频率,Rci为计算资源利用率,Rsi为内存资源利用率,gi()为以上述参数为自变量的函数,计算当前任务请求的响应时延,上式中,将资源利用率升高对响应时延的影响表示为线性函数,此外,还可利用神经网络等方式对其进行非线性拟合;
步骤3,如图3所示,主控节点建立不同业务的微服务调用结构图,并根据用户请求的历史数据训练预测模型,预测未来一定时间窗内各端侧算力设备的多种服务请求的流量信息,并据此计算出各微服务实例需求,再根据不同微服务实例间转发历史数据量和微服务自身特性信息建立微服务调用模型,具体包括:
3.1、主控节点建立微服务调用结构图,每一种业务被分解为多个微服务,微服务间的调用关系建模为一个有向图,其中,节点表示微服务类型,边表示微服务之间调用结构和传输数据量,为了进行统一建模与计算,将端侧算力设备设置为虚节点,此时有向图中每个节点表示一个微服务实例或端侧算力设备,并令l(vi)∈{cli1,cli2,...,cliN,ms1,ms2,...,msM}表示该节点属于的端侧算力设备或微服务种类,其中,vi表示微服务调用结构图中第i个节点,clii表示该节点数据第i个端侧算力设备,msi表示该节点数据第i类微服务;
3.2、根据流量预测结果信息和历史数据,以排队论为例,在一定的排队时延约束下预测各个类型微服务所需实例数量,进而扩充微服务调用结构图中各节点数量,用户业务请求输入被视为一个泊松过程,服务时间的分布根据历史数据计算其标准差和平均服务时间,此时对于每个类型的微服务视为M/G/m排队系统,以限制平均排队时延的最大值,以此计算出对应的m,即各个类型微服务实例数量,并将微服务调用结构图中对应节点扩充为m个,即根据流量预测结果信息得到第i个端侧算力设备的第j类业务的用户访问率和单次访问平均数据量分别记为λi,j和第k种微服务所需实例数量为/>根据散近似改善模型进行计算,如下式(2):
上式(2)中:W(M/G/m)表示平均排队时延,ρ表示服务强度,π0,θm,rm均为与以及平均服务时间、服务时间标准差等有关的中间变量,通过约束W(M/G/m),计算出最小所需实例数量/>
3.3、根据计算得到的微服务实例需求,根据历史流量信息预估各个实例间转发概率,进而确定单位时间内微服务调用结构图中各节点间传输数据量,最终得到完整的微服务调用模型;
步骤4,如图4所示,主控节点运行服务部署算法,计算最优的部署策略,具体地,包括:
步骤4.1、首先根据前述步骤的建模结果建立微服务实例与算网模型节点之间以及微服务间传输数据量与算网模型中网络传输速率之间的开销模型如下(3):
上式(3)中:c1,c2表示开销系数,优化目标公式前半部分表示数据传输开销,后半部分表示因端侧算力设备资源利用率升高对响应时延影响引起的开销,Xp,m为决策变量(0-1变量),限定一个微服务实例只能部署于一个端侧算力设备,并且单个端侧算力设备上部署的实例占用资源不超过资源上限;
步骤4.2,根据最优的部署策略,在端侧算力设备资源约束下执行服务部署算法,当同一端侧算力设备部署的微服务实例数量过多时,将使资源利用率上升的同时,不同实例间对资源抢占的冲突加重,增加响应时延,导致端侧算力设备开销的增加,另一方面,一对上下游微服务实例部署在不同的端侧算力设备上时,端侧算力设备之间网络传输速率与该实例对间传输数据量会影响传输时延的大小,同样导致端侧算力设备传输开销的增加,为此,在服务部署过程中需要权衡二者的开销,同时考虑资源的限制与部署的位置,以生成最优的部署策略;
步骤5,如图5所示,将生成的部署策略下发至各个端侧算力设备的Kubelet执行,Kubelet根据部署结果更新各个端侧算力设备所部署的微服务实例,并维护各个端侧算力设备的运行。
本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书界定。
Claims (5)
1.一种面向端侧算力网络的服务部署系统,其特征在于,所述面向端侧算力网络的服务部署系统,包含资源监控与分析模块、微服务性能监控与分析模块、流量分析与预测模块、服务部署模块,其中:
资源监控与分析模块:负责对端侧算力设备的可用资源总量和资源使用情况进行整合和分析,用于支撑服务部署的决策,包含端侧算力设备的存算资源与网络资源监控子模块和主控节点的资源分析与建模子模块,存算资源与网络资源监控子模块部署在每个端侧算力设备上,用于收集各端侧算力设备的可用存算资源总量、网络通信速率和网络连接目标IP,并实时上报至主控节点,主控节点的资源分析与建模子模块用于收集并整合各端侧算力设备上报的资源信息,构建端侧算网模型,包括端侧算力网络中诸节点的各类可用资源总量、网络拓扑结构、网络通信速率,以支撑服务部署的资源感知;
微服务监控与分析模块:包含部署于各端侧算力设备的微服务监控与分析子模块和部署于主控节点的微服务响应模型汇总子模块,其中,微服务监控与分析子模块用于采集各端侧算力设备的微服务运行信息,并根据采集信息对微服务响应特性进行建模,为微服务部署提供特性信息,基于端侧算力设备实时的资源利用率,统计并分析对微服务实例响应特性的影响情况,并基于采集信息可使用但不限于最小二乘、神经网络等方法得到拟合模型。最后将拟合模型的参数实时上报至主控节点进行整理,得到端侧算力网络图中各节点上运行微服务的特性信息;
流量分析与预测模块:统计各节点的流量转发信息,并基于历史服务请求信息对各端侧算力设备或接入节点的业务流量进行分析和预测,对于每一种服务均由多个微服务构成,每个微服务提供上游微服务和下游微服务,由于端侧算力设备资源的有限性,需要多个端侧算力设备的协同以实现一项服务的高效运行,即对处于其它端侧算力设备上的下游微服务,需要在端侧算力网络中存在的多个实例中选择并进行转发,通过对转发信息的统计,以获得微服务不同实例之间调用的详细信息,在业务流量分析与预测中,主控节点基于历史的服务请求信息建立预测模型,并预测未来一段时间窗内各端侧算力设备的业务请求量;
服务部署模块:利用收集的算力网络与服务信息,生成并执行服务部署策略,基于主控节点的Kubernetes Scheduler进行扩展,提出一种基于Gibbs采样的服务部署算法,定期更新端侧算力网络中算网建模信息和微服务响应特性,并根据未来一定时间窗内的预测信息获取微服务实例需求,基于上述信息生成服务部署决策并下发至各端侧算力设备执行,在服务部署决策的计算过程中,考虑了端侧算力网络的复杂性,包括端侧算力设备之间复杂的组网拓扑与差异化的通信速率、不同端侧算力设备异构差异化的算力资源以及微服务实例的响应特性。
2.一种面向端侧算力网络的服务部署方法,其特征在于,包括如下步骤:
步骤1,在面向端侧算力网络的服务部署系统中,端侧算力设备被分为多个组,每个组包括一个主控节点,负责管理组内的信息收集计算与服务部署决策,其中,在服务部署决策中,通过主控节点部署资源分析与建模子模块、微服务响应模型汇总子模块、流量分析与预测模块与服务部署模块、及其它端侧算力设备部署资源监控子模块、微服务监控与分析子模块与Kubelet节点代理定期对部署决策进行更新,端侧算力设备部署的资源监控子模块和微服务监控与分析子模块采集端侧算力设备的资源信息和微服务实例响应信息并更新拟合参数,最终将资源信息和结果参数上报至主控节点;
步骤2,主控节点开放对应信息接收端口,根据汇总信息对端侧算力设备资源信息、微服务响应信息进行实时分析,建立算网模型和微服务响应特性模型;
步骤3,主控节点建立不同业务的微服务调用结构图,并根据用户请求的历史数据训练预测模型,预测未来一定时间窗内各端侧算力设备的多种服务请求的流量信息,并据此计算出各微服务实例需求,最后根据不同微服务实例间转发历史数据量和微服务自身特性信息建立微服务调用模型;
步骤4,主控节点运行服务部署算法,计算最优的部署策略;
步骤5,将生成的最优的部署策略下发至各个端侧算力设备的Kubelet执行,Kubelet根据部署结果更新端侧算力设备所部署的微服务实例,并维护其运行。
3.按照权利要求2所述面向端侧算力网络的服务部署方法,其特征在于,步骤1中,所述端侧算力设备的资源监控子模块按照预先设定的采样频率,采集端侧算力设备的资源信息,并将信息打包压缩后上传至主控节点;端侧算力设备的微服务监控与分析子模块统计端侧算力设备每一时刻的CPU资源利用率、内存资源利用率以及微服务实例对于每次请求的响应特性,并根据采集信息训练拟合模型,最后将模型参数上传至主控节点。
按照权利要求2所述面向端侧算力网络的服务部署方法,其特征在于,步骤2中,所述主控节点开放对应信息接收端口,根据汇总信息对端侧算力设备资源信息、微服务响应信息进行实时分析,建立算网模型和微服务响应特性模型,包括:
2.1、主控节点开放信息收集接口,收集管理范围内各端侧算力设备的可用资源量以及端侧算力设备间的连接拓扑和网络速率,以端侧算力设备为节点,端侧算力设备间网络连接为边建立算网模型;
2.2、主控节点根据收集的各端侧算力设备的模型参数生成对于算网模型中每一个端侧算力设备的响应特性描述,建立微服务响应特性模型,微服务响应模型表示为下式(1):
上式(1)中:Fi为第i个端侧算力设备上的微服务当前任务请求所需计算量,fi为分配的CPU资源的计算频率,Rci为计算资源利用率,Rsi为内存资源利用率,gi()为以上述参数为自变量的函数,计算当前任务请求的响应时延,上式中,将资源利用率升高对响应时延的影响表示为线性函数。
4.按照权利要求2所述面向端侧算力网络的服务部署方法,其特征在于,步骤3中,所述主控节点建立不同业务的微服务调用结构图,包括:
3.1,每一种业务被分解为多个微服务,微服务间的调用关系建模为一个有向图,其中,节点表示微服务类型,边表示微服务之间调用结构和传输数据量,为了进行统一建模与计算,将端侧算力设备设置为虚节点,此时有向图中每个节点表示一个微服务实例或端侧算力设备,并令l(vi)∈{cli1,cli2,...,cliN,ms1,ms2,...,msM}表示该节点属于的端侧算力设备或微服务种类,其中,vi表示微服务调用结构图中第i个节点,clii表示该节点数据第i个端侧算力设备,msi表示该节点数据第i类微服务;
3.2,根据流量预测结果信息和历史数据,基于排队论确定未来一定时间窗内各个类型微服务所需实例数量,进而扩充微服务调用结构图中各节点数量,用户业务请求输入被视为一个泊松过程,服务时间的分布根据历史数据计算其标准差和平均服务时间,此时对于每个类型的微服务视为M/G/m排队系统,以限制平均排队时延的最大值,以此计算出对应的m,即各个类型微服务实例数量,并将微服务调用结构图中对应节点扩充为m个,即根据流量预测结果信息得到第i个端侧算力的第j类业务的用户访问率λi,j,第k种微服务所需实例数量为根据散近似改善模型进行计算,如下式(2):
上式(2)中:W(M/G/m)表示平均排队时延,ρ表示服务强度,π0,θm,rm均为与以及平均服务时间、服务时间标准差等有关的中间变量,通过约束W(M/G/m),计算出最小所需实例数量/>
3.3、根据计算得到的微服务实例需求,预估各个实例间转发概率,预估过程中保证同一个上游实例对于所有下游实例的转发概率和为1,以确定单位时间内微服务调用结构图中各节点间传输数据量,最终得到完整的微服务调用模型。
5.按照按照权利要求2所述面向端侧算力网络的服务部署方法,其特征在于,步骤4中,所述主控节点运行服务部署算法,计算最优的部署策略,包括:
步骤4.1、首先根据前述步骤的建模结果建立微服务实例与算网模型节点之间以及微服务间传输数据量与算网模型中网络传输速率之间的开销模型如下(3):
上式(3)中:c1,c2表示开销系数,优化目标公式前半部分表示数据传输开销,后半部分表示因端侧算力设备资源利用率升高对响应时延影响引起的开销,Xp,m为决策变量(0-1变量),限定一个微服务实例只能部署于一个端侧算力设备,并且单个端侧算力设备上部署的实例占用资源不超过资源上限;
步骤4.2,根据最优的部署策略,在端侧算力设备资源约束下执行服务部署算法,当同一端侧算力设备部署的微服务实例数量过多时,将使资源利用率上升的同时,不同实例间对资源抢占的冲突加重,增加响应时延,导致端侧算力设备开销的增加,另一方面,一对上下游微服务实例部署在不同的端侧算力设备上时,端侧算力设备之间网络传输速率与该实例对间传输数据量会影响传输时延的大小,同样导致端侧算力设备传输开销的增加,需要在服务部署过程中需要权衡二者的开销,同时考虑资源的限制与部署的位置,以生成最优的部署策略。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310510626.6A CN116684472A (zh) | 2023-05-08 | 2023-05-08 | 一种面向端侧算力网络的服务部署系统及其服务部署方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310510626.6A CN116684472A (zh) | 2023-05-08 | 2023-05-08 | 一种面向端侧算力网络的服务部署系统及其服务部署方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116684472A true CN116684472A (zh) | 2023-09-01 |
Family
ID=87784436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310510626.6A Pending CN116684472A (zh) | 2023-05-08 | 2023-05-08 | 一种面向端侧算力网络的服务部署系统及其服务部署方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116684472A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117499313A (zh) * | 2024-01-02 | 2024-02-02 | 中移(苏州)软件技术有限公司 | 请求控制方法、装置、存储介质、电子设备 |
-
2023
- 2023-05-08 CN CN202310510626.6A patent/CN116684472A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117499313A (zh) * | 2024-01-02 | 2024-02-02 | 中移(苏州)软件技术有限公司 | 请求控制方法、装置、存储介质、电子设备 |
CN117499313B (zh) * | 2024-01-02 | 2024-05-03 | 中移(苏州)软件技术有限公司 | 请求控制方法、装置、存储介质、电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113836796A (zh) | 一种基于云边协同的配电物联网数据监测系统及调度方法 | |
CN109657003A (zh) | 一种将硬件数据直接接入大数据平台的方法 | |
CN111010295B (zh) | 一种基于sdn-mec的配用电通信网任务迁移方法 | |
CN113259355B (zh) | 一种基于sdn的工业互联网标识切片管理系统 | |
CN112162789A (zh) | 一种基于软件定义的边缘计算随机卸载决策方法及系统 | |
KR20210063990A (ko) | 기계 학습 기반의 무인항공기 모바일 엣지 서버 간 협업 태스크 매칭 및 오프로딩 방법 | |
CN113098711A (zh) | 一种基于云边协同的配电物联网cps管控方法及系统 | |
CN115314355A (zh) | 基于确定性网络的电力通信网络架构系统及方法 | |
CN110275437A (zh) | 基于深度学习的sdn网络流量优势监控节点动态选择系统及其动态选择方法 | |
Mi et al. | Software-defined green 5G system for big data | |
CN116684472A (zh) | 一种面向端侧算力网络的服务部署系统及其服务部署方法 | |
CN113766544A (zh) | 一种基于多边缘协同的电力物联网切片优化方法 | |
CN117729164B (zh) | 一种四口千兆网卡动态带宽分配系统 | |
CN112148381A (zh) | 一种基于软件定义的边缘计算优先级卸载决策方法及系统 | |
Lyu et al. | Cooperative computing anytime, anywhere: Ubiquitous fog services | |
CN112162837B (zh) | 一种基于软件定义的边缘计算调度方法及系统 | |
Lu et al. | QoS-aware task scheduling in cloud-edge environment | |
CN116109058A (zh) | 一种基于深度强化学习的变电站巡视管理方法和装置 | |
CN112529419B (zh) | 一种基于相关性分析的电网数据透明应用方法及系统 | |
CN114327878A (zh) | 特高压换流站全景监测的云边协同通信调度方法 | |
CN114845308A (zh) | 一种计及电力多业务动态需求的跨mec资源管理方法 | |
CN114338428A (zh) | 配电物联网业务流量预测方法及装置 | |
CN113285823A (zh) | 基于容器的业务功能链编排方法 | |
Wu et al. | A Novel Joint Optimization Method of Multi-Agent Task Offloading and Resource Scheduling for Mobile Inspection Service in Smart Factory | |
CN113505326A (zh) | 一种基于http协议族的动态编码数据传输控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |