CN117692503B - 动态微服务图部署和概率请求路由的联合优化方法及系统 - Google Patents
动态微服务图部署和概率请求路由的联合优化方法及系统 Download PDFInfo
- Publication number
- CN117692503B CN117692503B CN202410158724.2A CN202410158724A CN117692503B CN 117692503 B CN117692503 B CN 117692503B CN 202410158724 A CN202410158724 A CN 202410158724A CN 117692503 B CN117692503 B CN 117692503B
- Authority
- CN
- China
- Prior art keywords
- micro
- deployment
- request
- service
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000005457 optimization Methods 0.000 title claims abstract description 47
- 239000011159 matrix material Substances 0.000 claims abstract description 48
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 33
- 230000004044 response Effects 0.000 claims description 41
- 238000004891 communication Methods 0.000 claims description 36
- 239000003795 chemical substances by application Substances 0.000 claims description 31
- 125000002015 acyclic group Chemical group 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 26
- 230000009471 action Effects 0.000 claims description 18
- 230000001276 controlling effect Effects 0.000 claims description 15
- 230000000875 corresponding effect Effects 0.000 claims description 11
- 230000007704 transition Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 8
- 230000005284 excitation Effects 0.000 claims description 7
- 238000012546 transfer Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 5
- 230000001186 cumulative effect Effects 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000001960 triggered effect Effects 0.000 claims description 4
- 239000000654 additive Substances 0.000 claims description 2
- 230000000996 additive effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013210 evaluation model Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 102220213553 rs1026192345 Human genes 0.000 description 1
- 102220241278 rs777474053 Human genes 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本申请提供了动态微服务图部署和概率请求路由的联合优化方法及系统,方法包括以下步骤:获取用户请求集合、微服务的部署位置以及实例部署矩阵;基于紧微服务实例确定算法计算获取每个请求的所有微服务在时隙内实例化所需的最小核心数量集合;根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合;输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策。本申请实现高效的微服务部署和请求路由,以优化资源利用率、降低成本、提升用户体验。
Description
技术领域
本申请涉及微服务技术领域,具体涉及动态微服务图部署和概率请求路由的联合优化方法及系统。
背景技术
云应用供应在组织架构上正逐渐开始从单体式转变到轻量且松耦合的微服务。基于微服务的在线应用被解耦成上千个细小的可互相通信的单元/组件的集合,为时延敏感型的应用提供高质量的,迅速的服务响应。与传统的单体式应用相比,运行在容器中的微服务具有易独立部署,易扩展性和高可靠性等优点。
随着性能需求的动态变化,用户请求会被不同的微服务的集合处理,这些微服务通过RPC或者其他暴露的接口进行频繁的数据通信,进而形成了动态微服务调用图。一些关键的微服务节点会同时出现在多样化的调用图中,因此,对应的微服务实例能够为事变的用户请求提供稳定的服务供应,这导致了独特的微服务复用和多实例服务分布。服务需求和负载的变化以及动态的微服务复用加剧了微服务间数据依赖的复杂程度和严重的资源浪费。
当前,微服务容器化实例的部署与细粒度的请求路由相互影响且是紧耦合的,这给微服务管理和负载管控带来了巨大的挑战。
一方面,微服务部署的有效性极其依赖于动态微服务特征和动态微服务调用图的请求。不同的服务需求导致不同的微服务请求调用顺序,这促使了更加频繁的数据通信和多层级的微服务复用。
另一方面,动态请求路由取决于已经部署的多个容器化的实例和基于多队列的概率路由路径。各种各样的有特定性能需求的调用图会共用微服务容器,这进一步恶化了多队列的实时网络环境。
发明内容
本申请提供一种动态微服务图部署和概率请求路由的联合优化方法及系统,可以解决现有技术多列队请求中存在的没有以细粒度的方式考虑多请求队列和多微服务容器的部署之间映射的技术问题。
第一方面,本申请提供了一种动态微服务图部署和概率请求路由的联合优化方法,包括以下步骤:
获取用户请求集合、微服务的部署位置以及实例部署矩阵;
基于紧微服务实例确定算法计算获取用户请求集合中的每个请求的所有微服务在时隙内实例化所需的最小核心数量集合;
根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合;
输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策。
结合第一方面,在一种实施方式中,所述基于紧微服务实例确定算法计算获取用户请求集合中的每个请求的所有微服务在时隙内实例化所需的最小核心数量集合步骤包括:
获取用户请求集合的所有动态转发路径集合;
获取动态有向无环转发图;
根据获取的动态有向无环转发图的转移边集合,计算每条动态转发路径的概率请求到达率和最大可容忍时延;
获取时隙内各动态转发路径中的所有请求所需实例化所需的核心数量和响应时延,并根据时隙内各动态转发路径中的所有请求所需实例化的响应时延获取各动态转发路径的平均响应时延;
比对各动态转发路径的平均响应时延和最大可容忍时延,获取比对工况;
根据获取的比对工况,控制执行不同的最小核心数量集合的获取策略。
结合第一方面,在一种实施方式中,所述根据获取的比对工况,控制执行不同的最小核心数量集合的获取策略包括:
若各动态转发路径的平均响应时延不大于最大可容忍时延时,则更新该路径上的所有微服务所需的核心数量集合为获取的各动态转发路径中所有请求所需的实例化所需的核心数量;
若各动态转发路径的平均响应试验大于最大可容忍时延,并且满足资源约束,则循环选择拥有最大集合平均增益的边际微服务增加其核心数,直至各动态转发路径的平均响应时延不大于最大可容忍时延,更新获取最终增加后的最小核心数量集合为各动态转发路径中所有请求所需的实例化的最终增至的核心数量。
结合第一方面,在一种实施方式中,所述根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合步骤包括:
根据微服务的部署位置以及核心数量集合,控制执行不同获取策略获取各请求的微服务依赖对间的请求路由概率;
根据获取的最小核心数量集合,实时更新各微服务节点部署的核心数量;
根据请求r的请求到达率计算获取各动态转发路径的等效请求到达率;
根据路由概率集合和各请求的微服务实例化所需的核心数量集合,确定各请求基于多实例的请求路由路径;
计算获取每条动态转发路径的微服务的总请求到达率和每个路由路径端到端的平均响应时延;
按照概率独立并且累加的方式,更新所有路由的概率矩阵集合和所有微服务的实例部署集合。
结合第一方面,在一种实施方式中,所述根据微服务的部署位置以及核心数量集合,控制执行不同获取策略获取各请求的微服务依赖对间的请求路由概率包括:
若一微服务节点为入口微服务节点,则该请求的路由概率集合根据下式计算得到:
;
式中,为请求r的微服务节点/>路由至服务器节点/>上的路由概率,/>为第i条动态转发路径遍历的第1个微服务节点,即入口微服务节点,/>是微服务节点/>在时隙t是否部署在服务器节点/>上的布尔型变量,/>是请求r的微服务节点/>在时隙t部署在服务器节点/>实例化所需的核心数量,/>表示请求r的所有微服务节点被部署的总核心资源需求总量;
若一微服务节点不是入口微服务节点,并且满足带宽约束,则该请求的路由概率集合根据下式计算得到:
;
式中,为请求r的微服务节点/>自服务器节点/>路由部署在服务器节点/>上的微服务节点/>的转移概率,/>为微服务/>在时隙t内是否部署在服务节点/>上的布尔型变量,/>是请求r的微服务/>在时隙t内部署在服务器节点/>实例化所需的核心数量,/>表示请求r的所有微服务节点被部署的总核心资源需求总量。
结合第一方面,在一种实施方式中,所述输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策包括:
初始化环境状态,并将在前几轮训练中可行的随机编排方案的目标函数值作为奖励函数的基准,收集微服务部署轨迹的集合;
在各时隙内根据概率分布选择动作,将对应的动作掩码添加到动作掩码列表;
若时隙内满足动态有向无环转发图的事件触发和离散时隙触发条件时,则调用所述路由概率矩阵集合和所有微服务的实例部署集合;
智能体执行动作,使环境状态从第一环境状态转移到第二环境状态,并计算奖励微服务部署轨迹集合中,获取满足激励条件的元组,保存至,直至所有动态转发路径上的所有微服务部署完成,请求路由策略被触发,智能体根据启发式算法,执行细粒度的路由动作,如此完成该轮时隙的智能体的训练;
执行完一轮时隙训练后,更新奖励函数的目标函数值作为新的基准,计算获取加权的内在激励和外在奖励之和,作为轨迹目标回报估计,基于值函数遵循平均GAE计算优势函数估计;
如此往复,执行对所有请求的所有轮时隙的智能体训练,获取训练后的智能体;
输入获取的所有请求的路由概率矩阵集合和所有微服务的实例部署集合至训练后的智能体,获取所有请求的最优的微服务部署和请求路由的联合决策。
结合第一方面,在一种实施方式中,
所述动态有向无环转发图的事件触发条件为:
当前时隙内,当前用户请求动态有向无环转发图包含的所有微服务完成部署,并做出细粒度路由决策,才会处理等待队列中的下一个请求流;
所述离散时隙时间触发条件为:
当前时隙内,所有微服务实例完成部署,才会处理下一个时隙内的所有批量用户请求的微服务实例部署,直到所有时隙内的所有请求被部署完成。
第二方面,本申请提供了一种动态微服务图部署和概率请求路由的联合优化系统,包括以下步骤:
服务信息获取模块,用于获取用户请求集合、微服务的部署位置、实例部署矩阵和动态有向无环转发图;
核心数量集合获取模块,与所述服务信息获取模块通信连接,用于基于紧微服务实例确定算法计算获取用户请求集合中的每个请求的所有微服务在时隙内实例化所需的最小核心数量集合;
数据集获取模块,与所述服务信息获取模块和所述核心数量集合获取模块通信连接,用于根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合;
联合决策获取模块,与所述数据集获取模块通信连接,用于输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策。
结合第二方面,在一种实施方式中,所述核心数量集合获取模块包括:
路径集合获取单元,与所述服务信息获取模块通信连接,用于获取用户请求集合的所有动态转发路径集合;
转发图获取单元,与所述服务信息获取模块通信连接,用于获取动态有向无环转发图;
转发路径信息获取单元,与所述转发图获取单元通信连接,用于根据获取的动态有向无环转发图的转移边集合,计算获取每条动态转发路径的概率请求到达率和最大可容忍时延;
实例化信息获取单元,与所述路径获取单元通信连接,用于对于时隙内各动态转发路径中的所有请求,计算其所需实例化所需的核心数量和平均时延;
比对单元,与所述转发路径获取单元和所述实例化信息获取单元通信连接,用于比对各动态转发路径的平均响应时延和最大可容忍时延,获取比对工况;
核心数量集合获取单元,与所述比对单元通信连接,用于根据获取的比对工况,控制执行不同的最小核心数量集合的获取策略。
结合第二方面,在一种实施方式中,所述核心数量集合获取单元包括:
核心数量集合获取第一单元,与所述比对单元通信连接,用于若各动态转发路径的平均响应时延不大于最大可容忍时延时,则更新该路径上的所有微服务所需的核心数量集合为获取的各动态转发路径中所有请求所需的实例化所需的核心数量;
核心数量集合获取第二单元,与所述比对单元通信连接,用于若各动态转发路径的平均响应试验大于最大可容忍时延,并且满足资源约束,则循环选择拥有最大集合平均增益的边际微服务增加其核心数,直至各动态转发路径的平均响应时延不大于最大可容忍时延,更新获取最终增加后的最小核心数量集合为各动态转发路径中所有请求所需的实例化的最终增至的核心数量。
本申请实施例提供的技术方案带来的有益效果至少包括:
本申请提供的动态微服务图部署和概率请求路由的联合优化方法,根据紧微服务实例确定算法获取每个请求r的所有微服务集合M在时隙t内实例化所需的最小核心数量的集合,然后基于所提出的多时间尺度近端策略优化框架训练编排智能体,针对每个动态有向无环图对应的请求流做出最优的部署和请求路由联合决策,直到所有的用户请求被处理完成,实现高效的微服务部署和请求路由,以优化资源利用率、降低成本、提高用户体验。
附图说明
图1为本申请实施例提供的一种微服务部署和请求路由案例示意图;
图2为本申请实施例提供的动态微服务图部署和概率请求路由的联合优化方法的方法流程图;
图3为本申请实施例提供的一种紧实例数量确定算法流程示意图
图4为本申请实施例提供的一种累积公平路由算法算法流程示意图;
图5为本申请实施例提供的一种内在好奇心近端策略优化算法流程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。术语“第一”、“第二”和“第三”等描述,是用于区分不同的对象等,其不代表先后顺序,也不限定“第一”、“第二”和“第三”是不同的类型。
在本申请实施例的描述中,“示例性的”、“例如”或者“举例来说”等用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”、“例如”或者“举例来说”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”、“例如”或者“举例来说”等词旨在以具体方式呈现相关概念。
在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;文本中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,另外,在本申请实施例的描述中,“多个”是指两个或多于两个。
在本申请实施例描述的一些流程中,包含了按照特定顺序出现的多个操作或步骤,但是应该理解,这些操作或步骤可以不按照其在本申请实施例中出现的顺序来执行或并行执行,操作的序号仅用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作或步骤可以按顺序执行或并行执行,并且这些操作或步骤可以进行组合。
首先,对本申请中的部分技术术语进行解释说明,以便于本领域技术人员理解本申请。
请参阅图1,本申请一个实施例提供的一种微服务部署和请求路由的案例示意图,该案例基于在线电商购物平台实现微服务的部署和请求的路由。
该在线电商购物平台提供各种商品的展示、搜索、购买、支付、物流等功能,以及评论、收藏、推荐等功能。平台需要在云数据中心中部署和管理多个微服务,以满足不同用户的需求和偏好。该平台需要根据时变的用户负载和动态的微服务调用图,实现高效的微服务部署和请求路由,以优化资源利用率、降低成本、提高用户体验。例如,当用户搜索某个商品时,需要调用展示、搜索、推荐等微服务,并根据用户的选择和行为,调用购买、支付、物流等微服务。不同的商品和用户可能有不同的微服务调用顺序和转发概率,以及不同的性能需求和响应时延限制。
为了处理实时的网络变化,假设微服务系统以时隙的方式运行,并作出以下假定、技术术语定义以及英文标注。
其中,各英文解释如下:
TID为紧实例数量确定算法;
CPPR为累积公平路由算法算法流程示意图;
ICM-PPO为内在好奇心近端策略优化算法;
表示时隙集合,/>为时隙集合中的时隙总数;
表示微服务节点集合;
表示时隙/>内服务器节点/>可用的资源容量,所述资源为CPU、内存或存储资源等,/>被表示为CPU核心数量。
考虑异构的数据中心网络平台,每个服务器有不同大小的相对受限的资源容量,每个核心只能实例化一个微服务实例,而一种微服务可以在多个服务器和多个核心上实例化。
L表示物理链路集合;
表示/>的链路通信时延,它包括传输时延/>和传播时延/>;
表示在时隙t内物理链路/>上可用的带宽资源。
表示请求;
R表示用户请求集合,;
表示微服务集合,/>,/>为请求/>的的微服务节点的集合,/>为所有请求的微服务节点集合的集合;
为每个微服务的节点集合;
表示第/>个动态转发路径;
表示请求/>的请求到达率;
为第/>个动态转发路径的请求/>的请求到达率;
为请求/>经由个动态转发路径路由的最大可容忍时延;
为请求/>经由第/>动态转发路径路由的所有微服务实例化的平均时延;
为请求/>的请求到达率;
在基于微服务的时延敏感用户应用中,一个请求需要去遍历微服务的集合,其中/>,/>为请求的总数。每个请求的流量伴随着一个非负的请求到达率/>根据它的动态有向无环转发图传输。
表示请求/>的一个单入口多出口的动态有向无环转发图;
表示动态有向无环转发图中微服务节点之间连线形成的转移边的转移边集合,它的权重代表微服务节点间的请求转移概率,可以被认为是一个/>的邻接矩阵来表示任意两个微服务之间的流量流向,/>表示用户请求从微服务/>到/>的转移概率。
此外,每个用户请求规定了一个到达时间/>和一个最大可容忍端到端服务时间,它表示如果请求/>的所有微服务被放置完毕后,请求/>期望在一段时间内被完成;
表示请求/>在时隙/>内的状态,表示请求/>是否在时隙/>正在被处理,包括处理完成和处理未完成两种状态,处理完成用1表示,处理未完成用0表示,其表达式如下:
表示请求/>的响应时延限制,根据下式计算获得:
式中,为请求r路由到达接收端的时间,/>为请求r从发送端路由开始时间;
表示请求/>的实际响应时延,它表示在请求的发送端到接收端之间构造完整的路由路径时延。如果实际响应时延/>超过/>,那么该请求/>将服务失败。
假设单位到达率所承载的数据量为,不同服务的用户请求承载了不同的数据通信量,它与链路带宽占用直接相关。
为微服务/>所需实例化所需的核心数量,其中,/>代表请求r的第/>条动态转发路径,j代表动态转发路径/>需要遍历的的第j个微服务;
为微服务集合中的所有微服务在时隙/>内实例化的最小核心数量的集合。
为请求/>的的微服务节点的集合中所有微服务实例化所需的最小核心数量的集合。
为所有请求的所有动态转发路径的集合,/>为请求/>的第/>个动态转发路径;
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
第一方面,请参考图2,本申请提供了一种动态微服务图部署和概率请求路由的联合优化方法,包括以下步骤:
步骤S1、获取用户请求集合、微服务的部署位置以及实例部署矩阵;
步骤S2、基于紧微服务实例确定算法计算获取用户请求集合中的每个请求的所有微服务在时隙内实例化所需的最小核心数量集合;
步骤S3、根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合;
步骤S4、输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策。
本申请提供的动态微服务部图部署和概率请求路由联合优化方法,提出的自适应多实例细粒度编排联合优化方法,在优化总体成本、最小化请求路由端到端延迟的同时,还可显著提升请求的微服务部署系统的全局服务性能。
在一实施例中,如图3所示,所述步骤S2、基于紧微服务实例确定算法计算获取用户请求集合中的每个请求的所有微服务在时隙内实例化所需的最小核心数量集合步骤包括:
步骤S21、通过深度优选算法(DFS)计算获取用户请求集合的所有动态转发路径集合;
步骤S22、获取动态有向无环转发图;
步骤S23、根据获取的动态有向无环转发图的转移边集合,计算获取每条动态转发路径的概率请求到达率/>和最大可容忍时延/>:
式中,代表每个微服务的请求到达率,/>表示用户请求从微服务到/>的转移概率。/>为最大链路通信时延,/>代表每个用户请求r的最大可容忍时延,计算公式为:
式中,为请求/>的最大可容忍的从发送端到接受端的服务时间,表示如果请求/>的所有微服务被放置,请求/>期望在一段时间内被完成,/>为请求的到达时间。
步骤S24、对于时隙t内各动态转发路径中的所有请求,计算其所需实例化所需的核心数量和平均时延/>;
其中,核心数量计算公式如下:
式中,代表每个核心对不同微服务的处理能力;
其中,第个动态转发路径的响应时延/>计算公式如下:
式中,代表微服务/>的响应时延,包括对应微服务的排队时延和处理时延。
步骤S25、根据以下约束不等式,比对各动态转发路径的平均响应时延和最大可容忍时延,获取比对工况:
式中,为第i个动态转发路径的响应时延,/>为第i个动态转发路径的平均响应时延;
步骤S26、根据获取的比对工况,控制执行不同的最小核心数量集合的获取策略。
根据本申请提出的紧微服务实例确定(TID)算法即可得到每个请求的所有微服务集合M在时隙/>内实例化所需的最小核心数量的集合/>,然后基于所提出的多时间尺度近端策略优化框架(MTS-PPO)训练编排智能体,针对每个动态有向无环图对应的请求流做出最优的部署和请求路由联合决策,直到所有的用户请求被处理完成。
在一实施方式中,所述步骤S25、根据获取的比对工况,控制执行不同的最小核心数量集合的获取策略包括:
步骤S25A、若各动态转发路径的平均响应时延不大于最大可容忍时延时,则更新该路径上的所有微服务所需的核心数量集合为获取的各动态转发路径中所有请求所需的实例化所需的核心数量集合/>:
步骤S25B、若各动态转发路径的平均响应时延大于最大可容忍时延,并且满足以下的资源约束不等式,则循环选择拥有最大几何平均增益的边际微服务(所述边际微服务为具有最大边际效应,即具有最大几何平均增益的微服务)增加其核心数,直至各动态转发路径的平均响应时延不大于该动态转发路径的最大可容忍时延,则更新该路径上的所有微服务所需的核心数量集合为获取的各动态转发路径中所有请求所需的实例化所需的核心数量集合/>:
式中,代表每个服务器节点/>可用的资源容量,如CPU、内存、存储资源等,其被表示为CPU核心数量。
其中,所述处理能力的增益,根据下式计算获取:
式中,是第i条动态转发路径和微服务/>的处理能力的增益,/>是占用核心增加后微服务/>的处理时间,/>是增加核心数后的微服务占用核心数量,/>为服务器每个核心对不同微服务的处理能力函数的导数。
若循环结束后,当前时隙内无法找到可满足时延要求的核心数量集合,则退回上一条动态转发路径重新进行分配,直至所有路径均可得到满足时延要求的集合。最终得到请求的所有动态转发路径/>对应的最小实例集合/>,更新所有请求的所有微服务实例化所需的核心数量集合/>。
在一实施例中,请参考图4,所述步骤S3、根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合步骤包括:
步骤S31、根据微服务的部署位置以及核心数量集合,控制执行不同获取策略获取各请求的微服务依赖对间的请求路由概率;
步骤S32、将获取的最小核心数量集合根据下式,实时更新各微服务节点部署的核心数量:
;/>
式中,为对应的微服务实例部署矩阵;
步骤S33、将请求的请求到达率根据下式进行数值变换,计算获取各动态转发路径的等效请求到达率:
;
式中,为请求r的第i个动态转发路径的等效请求到达率,/>是用户请求/>从微服务/>到微服务/>的转移概率。
步骤S34、根据路由概率集合和各请求的微服务实例化所需的核心数量集合/>,确定请求r的第i动态转发路径的请求路由路径/>;
步骤S35、根据下式计算获取每条动态转发路径的微服务的总请求到达率和每个路由路径端到端的平均响应时延/>:
式中,表示动态转发路径的等效的总带宽占用。具体来说,/>表示在/>中每对微服务间的数据带宽使用,其与通过该微服务的请求到达率成正比。/>表示第/>条路由路径的平均响应时延,其包含转发路径构造时间、排队时延、处理时延、传输时延和传播时延:
;
式中,表示请求/>的指定微服务调用顺序的构造时间,取决于动态有向无环图的规模和微服务节点的复用程度;/>代表请求/>部署在和/>上的所有微服务对;
步骤S36、按照概率独立并且累加的方式,更新所有路由的概率矩阵集合和所有微服务的实例部署集合/>,并进行备份。
在一实施例中,所述S31、根据微服务的部署位置以及核心数量集合,控制执行不同获取策略获取各请求的微服务依赖对间的请求路由概率包括:
步骤S31A、微服务节点为入口微服务节点,则该请求的路由概率集合根据下式计算得到,入口微服务节点为动态转发路径上被调用的首个微服务节点:
;
式中,为请求r的微服务节点/>路由至服务器节点/>上的路由概率,/>为第i条动态转发路径遍历的第1个微服务节点,即入口微服务节点,/>是微服务节点/>在时隙t是否部署在服务器节点/>上的布尔型变量,/>是请求r的微服务节点/>在时隙t部署在服务器节点/>实例化所需的核心数量,/>表示请求r的所有微服务节点被部署的总核心资源需求总量;
步骤S31B、微服务节点为非入口微服务节点,并且满足带宽约束,则该请求的路由概率集合根据下式计算得到:
;
式中,为请求r的微服务节点/>自服务器节点/>路由部署在服务器节点/>上的微服务节点/>的转移概率,/>为微服务/>在时隙t内是否部署在服务节点/>上的布尔型变量,/>是请求r的微服务/>在时隙t内部署在服务器节点/>实例化所需的核心数量,/>表示请求r的所有微服务节点被部署的总核心资源需求总量。
请求的路由概率代表服务请求的一个请求流达到部署微服务/>的节点/>时,调度该服务请求流到部署微服务/>的节点/>的概率。
在一实施例中,请参考图5,所述步骤S4、输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策包括:
初始化环境状态,并将在前几轮训练中可行的随机编排方案的目标函数值作为奖励函数的基准,收集微服务部署轨迹的集合/>,通过执行策略/>与模拟环境进行交互;其中,所述前几轮训练为强化学习中在开始正式预训练模型前,先对评估模型Critic Model进行若干轮的训练,以帮助在正式训练的初期Critic模型能进行较为正确的评估,在本专利中为简化说明,一同包括在模型的整体训练过程中。
其中,在每个时隙开始时,数据中心的动态状态被获得在嵌入向量的特征中,环境状态/>包括:
(1)服务器节点状态和链路带宽:在当前时隙,每个服务器剩余的计算资源,资源利用率和其相邻节点的链路剩余带宽资源;
(2)微服务部署状态:在当前时隙t,每个微服务在节点上被部署的实例的数量和位置;
(3)当前将被放置的微服务的相关属性:微服务的种类,需要的核心数量,剩余待部署的实例数量;
(4)上一个时刻放置的实例配置:微服务类型,被部署的核心数量,是否与/>时刻部署的微服务属于同类型,实例部署的服务器节点位置。
在各时隙内根据概率分布选择动作/>,将对应的动作掩码添加到动作掩码列表/>。;
若时隙内满足动态有向无环转发图(DAFG)的事件触发和离散时隙触发条件时,则调用累积公平算法(CPPR)计算获取所述路由概率矩阵集合和所有微服务的实例部署集合;
智能体执行动作,使环境状态从第一环境状态/>转移到第二环境状态/>,并计算奖励/>,将元组/>保存至微服务部署轨迹集合中,直至所有动态转发路径(DFP)上的所有微服务部署完成,请求路由策略被触发,智能体根据启发式算法,执行细粒度的路由动作,如此完成该轮时隙的智能体的训练。其中,元组为一种序列,特点是不支持修改或删除其所包含的元素,此处使用元组而不是列表是为了避免编写代码时对变量误操作修改了过去轮次保存的轨迹集合数据,强调过往数据的不可修改性。
在每个时隙,编排智能体的动作表达式如下:
执行完一轮时隙训练后,更新奖励函数的目标函数值作为新的基准,计算获取加权的内在激励和外在奖励之和,作为轨迹目标回报估计,基于值函数/>遵循平均GAE计算优势函数估计/>;
如此往复,执行对所有请求的所有轮时隙的智能体训练,获取训练后的智能体;
输入获取的所有请求的路由概率矩阵集合和所有微服务的实例部署集合至训练后的智能体,获取所有请求的最优的微服务部署和请求路由的联合决策。
本申请中,引入基于好奇心的内在奖励机制和基于时隙终止的动态奖励信号,当没有环境提供的外在奖励时候,给智能体提供内在奖励以帮助其更好地进行探索,此外,当用户请求能够被完全处理时,对每个时隙/>,将该时刻之前的所有请求的平均响应时延求和,并与上一个轮次对应时隙的时延值相比较,我们称这种机制为时间步叠加的动态奖励。提出的两种方式(哪两种方式)能够高效地帮助神经网络快速收敛,且解决奖励稀疏和不同事件触发下复杂的奖励函数设计问题。
具体来说,定义奖励函数表达式如下:
式中,表示基于微服务部署成本的奖励信号,/>表示全局平均资源利用率的奖励反馈,/>表示请求累积时延的差值作为时延反馈,计算表达式如下:
式中,表示当前环境状态下的内在奖励。当DAFG被完全编排且这个事件被触发时,用符号/>表示上一个轮次中在时隙/>结束时的微服务等效部署成本,/>表示当前轮次中时隙t结束时的部署成本,/>表示为部署成本更新的阈值;同理,/>和分别表示上一个轮次中的资源利用率和累积请求时延之和,/>和为当前轮次的资源利用率和累积请求时延之和;/>和/>为资源利用率和累积请求时延之和更新的阈值;/>为时延奖励更新的权重系数。在n轮epsiode结束后或所有请求/>被处理的n次迭代后更新/>,/>和/>;
基于动作掩码列表计算新旧策略比值,剪裁的替代目标/>和策略熵损失函数/>用于训练Actor网络;
使用小批量随机梯度下降(MBSGD)更新策略参数以最大化PPO-clip目标,通过均方误差的回归拟合价值网络参数;
通过使用随机梯度下降计算预测动作和状态特征编码的估计/>,通过最小化前向动力模型和逆向动力模型的损失函数以优化神经网络参数;
更新ICM模型参数,其中/>包含逆向动力网络/>,前向动力网络和特征嵌入网络/>。输出Actor模型网络参数/>,Critic网络参数/>,ICM模型参数/>。/>
在一实施例中,所述动态有向无环转发图的事件触发条件为:
当前时隙内,当前用户请求动态有向无环转发图包含的所有微服务完成部署,并做出细粒度路由决策,才会处理等待队列中的下一个请求流;
在一实施例中,所述离散时隙时间触发条件为:
当前时隙内,所有微服务实例完成部署,才会处理下一个时隙/>内的所有批量用户请求的微服务实例部署,直到所有时隙内的所有请求被部署完成。
第二方面,本申请提供了一种动态微服务图部署和概率请求路由的联合优化系统,包括以下步骤:
服务信息获取模块,用于获取用户请求集合、微服务的部署位置、实例部署矩阵和动态有向无环转发图;
核心数量集合获取模块,与所述服务信息获取模块通信连接,用于基于紧微服务实例确定算法计算获取用户请求集合中的每个请求的所有微服务在时隙内实例化所需的最小核心数量集合;
数据集获取模块,与所述服务信息获取模块和所述核心数量集合获取模块通信连接,用于根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合;
联合决策获取模块,与所述数据集获取模块通信连接,用于输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策。
在一实施例中,所述核心数量集合获取模块包括:
路径集合获取单元,与所述服务信息获取模块通信连接,用于获取用户请求集合的所有动态转发路径集合;
转发图获取单元,与所述服务信息获取模块通信连接,用于获取动态有向无环转发图;
转发路径信息获取单元,与所述转发图获取单元通信连接,用于根据获取的动态有向无环转发图的转移边集合,计算获取每条动态转发路径的概率请求到达率和最大可容忍时延;
实例化信息获取单元,与所述路径获取单元通信连接,用于对于时隙内各动态转发路径中的所有请求,计算其所需实例化所需的核心数量和平均时延;
比对单元,与所述转发路径获取单元和所述实例化信息获取单元通信连接,用于比对各动态转发路径的平均响应时延和最大可容忍时延,获取比对工况;
核心数量集合获取单元,与所述比对单元通信连接,用于根据获取的比对工况,控制执行不同的最小核心数量集合的获取策略。
在一实施例中,所述核心数量集合获取单元包括:
核心数量集合获取第一单元,与所述比对单元通信连接,用于若各动态转发路径的平均响应时延不大于最大可容忍时延时,则更新该路径上的所有微服务所需的核心数量集合为获取的各动态转发路径中所有请求所需的实例化所需的核心数量;
核心数量集合获取第二单元,与所述比对单元通信连接,用于若各动态转发路径的平均响应试验大于最大可容忍时延,并且满足资源约束,则循环选择拥有最大集合平均增益的边际微服务增加其核心数,直至各动态转发路径的平均响应时延不大于最大可容忍时延,更新获取最终增加后的最小核心数量集合为各动态转发路径中所有请求所需的实例化的最终增至的核心数量。
第三方面,本申请实施例还提供一种可读存储介质。
本申请可读存储介质上存储有动态微服务图部署和概率请求路由的联合优化程序,其中所述动态微服务图部署和概率请求路由的联合优化程序被处理器执行时,实现如上述的动态微服务图部署和概率请求路由的联合优化方法的步骤。
其中,动态微服务图部署和概率请求路由的联合优化程序被执行时所实现的方法可参照本申请动态微服务图部署和概率请求路由的联合优化方法的各个实施例,此处不再赘述。
需要说明的是,上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (8)
1.一种动态微服务图部署和概率请求路由的联合优化方法,其特征在于,包括以下步骤:
获取用户请求集合、微服务的部署位置以及实例部署矩阵;
基于紧微服务实例确定算法计算获取用户请求集合中的每个请求的所有微服务在时隙内实例化所需的最小核心数量集合;
根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合;
输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策;
所述输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策包括:
初始化环境状态,并将在前几轮训练中可行的随机编排方案的目标函数值作为奖励函数的基准,收集微服务部署轨迹的集合;
在各时隙内根据概率分布选择动作,将对应的动作掩码添加到动作掩码列表;
若时隙内满足动态有向无环转发图的事件触发和离散时隙触发条件时,则调用所述路由概率矩阵集合和所有微服务的实例部署集合;
智能体执行动作,使环境状态从第一环境状态转移到第二环境状态,并计算奖励微服务部署轨迹集合中,获取满足激励条件的元组,保存至微服务部署轨迹集合中,直至所有动态转发路径上的所有微服务部署完成,请求路由策略被触发,智能体根据启发式算法,执行细粒度的路由动作,如此完成该轮时隙的智能体的训练;
执行完一轮时隙训练后,更新奖励函数的目标函数值作为新的基准,计算获取加权的内在激励和外在奖励之和,作为轨迹目标回报估计,基于值函数遵循平均GAE计算优势函数估计;
如此往复,执行对所有请求的所有轮时隙的智能体训练,获取训练后的智能体;
输入获取的所有请求的路由概率矩阵集合和所有微服务的实例部署集合至训练后的智能体,获取所有请求的最优的微服务部署和请求路由的联合决策;
所述动态有向无环转发图的事件触发条件为:
当前时隙内,当前用户请求动态有向无环转发图包含的所有微服务完成部署,并做出细粒度路由决策,才会处理等待队列中的下一个请求流;
所述离散时隙触发条件为:
当前时隙内,所有微服务实例完成部署,才会处理下一个时隙内的所有批量用户请求的微服务实例部署,直到所有时隙内的所有请求被部署完成。
2.如权利要求1所述的动态微服务图部署和概率请求路由的联合优化方法,其特征在于,所述基于紧微服务实例确定算法计算获取用户请求集合中的每个请求的所有微服务在时隙内实例化所需的最小核心数量集合步骤包括:
获取用户请求集合的所有动态转发路径集合;
获取动态有向无环转发图;
根据获取的动态有向无环转发图的转移边集合,计算获取每条动态转发路径的概率请求到达率和最大可容忍时延;
获取时隙内各动态转发路径中的所有请求所需实例化所需的核心数量和响应时延,并根据时隙内各动态转发路径中的所有请求所需实例化的响应时延获取各动态转发路径的平均响应时延;
比对各动态转发路径的平均响应时延和最大可容忍时延,获取比对工况;
根据获取的比对工况,控制执行不同的最小核心数量集合的获取策略。
3.如权利要求2所述的动态微服务图部署和概率请求路由的联合优化方法,其特征在于,所述根据获取的比对工况,控制执行不同的最小核心数量集合的获取策略包括:
若各动态转发路径的平均响应时延不大于最大可容忍时延时,则更新该路径上的所有微服务所需的核心数量集合为获取的各动态转发路径中所有请求所需的实例化所需的核心数量;
若各动态转发路径的平均响应试验大于最大可容忍时延,并且满足资源约束,则循环选择拥有最大集合平均增益的边际微服务增加其核心数,直至各动态转发路径的平均响应时延不大于最大可容忍时延,更新获取最终增加后的最小核心数量集合为各动态转发路径中所有请求所需的实例化的最终增至的核心数量。
4.如权利要求1所述的动态微服务图部署和概率请求路由的联合优化方法,其特征在于,所述根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合步骤包括:
根据微服务的部署位置以及核心数量集合,控制执行不同获取策略获取各请求的微服务依赖对间的请求路由概率;
根据获取的最小核心数量集合,实时更新各微服务节点部署的核心数量;
根据请求r的请求到达率计算获取各动态转发路径的等效请求到达率;
根据路由概率集合和各请求的微服务实例化所需的核心数量集合,确定各请求基于多实例的请求路由路径;
计算获取每条动态转发路径的微服务的总请求到达率和每个路由路径端到端的平均响应时延;
按照概率独立并且累加的方式,更新所有路由的概率矩阵集合和所有微服务的实例部署集合。
5.如权利要求4所述的动态微服务图部署和概率请求路由的联合优化方法,其特征在于,所述根据微服务的部署位置以及核心数量集合,控制执行不同获取策略获取各请求的微服务依赖对间的请求路由概率包括:
若一微服务节点为入口微服务节点,则该请求的路由概率集合根据下式计算得到:
;
式中,为请求r的微服务节点/>路由至服务器节点/>上的路由概率,/>为第i条动态转发路径遍历的第1个微服务节点,即入口微服务节点,/>是微服务节点/>在时隙t是否部署在服务器节点/>上的布尔型变量,/>是请求r的微服务节点/>在时隙t部署在服务器节点/>实例化所需的核心数量,/>表示请求r的所有微服务节点被部署的总核心资源需求总量;
若一微服务节点不是入口微服务节点,并且满足带宽约束,则该请求的路由概率集合根据下式计算得到:
;
式中,为请求r的微服务节点/>自服务器节点/>路由部署在服务器节点上的微服务节点/>的转移概率,/>为微服务/>在时隙t内是否部署在服务节点/>上的布尔型变量,/>是请求r的微服务/>在时隙t内部署在服务器节点/>实例化所需的核心数量,/>表示请求r的所有微服务节点被部署的总核心资源需求总量。
6.一种动态微服务图部署和概率请求路由的联合优化系统,其特征在于,包括以下步骤:
服务信息获取模块,用于获取用户请求集合、微服务的部署位置、实例部署矩阵和动态有向无环转发图;
核心数量集合获取模块,与所述服务信息获取模块通信连接,用于基于紧微服务实例确定算法计算获取用户请求集合中的每个请求的所有微服务在时隙内实例化所需的最小核心数量集合;
数据集获取模块,与所述服务信息获取模块和所述核心数量集合获取模块通信连接,用于根据微服务的部署位置、实例部署矩阵以及最小核心数量集合,基于累积公平路由算法,获取所有请求的路由概率矩阵集合和所有微服务的实例部署集合;
联合决策获取模块,与所述数据集获取模块通信连接,用于输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策;
所述输入所有请求的路由概率矩阵集合和所有微服务的实例部署集合至近端策略优化框架执行多实例细粒度编排联合优化训练,获取所有请求的最优的微服务部署和请求路由的联合决策包括:
初始化环境状态,并将在前几轮训练中可行的随机编排方案的目标函数值作为奖励函数的基准,收集微服务部署轨迹的集合;
在各时隙内根据概率分布选择动作,将对应的动作掩码添加到动作掩码列表;
若时隙内满足动态有向无环转发图的事件触发和离散时隙触发条件时,则调用所述路由概率矩阵集合和所有微服务的实例部署集合;
智能体执行动作,使环境状态从第一环境状态转移到第二环境状态,并计算奖励微服务部署轨迹集合中,获取满足激励条件的元组,保存至微服务部署轨迹集合中,直至所有动态转发路径上的所有微服务部署完成,请求路由策略被触发,智能体根据启发式算法,执行细粒度的路由动作,如此完成该轮时隙的智能体的训练;
执行完一轮时隙训练后,更新奖励函数的目标函数值作为新的基准,计算获取加权的内在激励和外在奖励之和,作为轨迹目标回报估计,基于值函数遵循平均GAE计算优势函数估计;
如此往复,执行对所有请求的所有轮时隙的智能体训练,获取训练后的智能体;
输入获取的所有请求的路由概率矩阵集合和所有微服务的实例部署集合至训练后的智能体,获取所有请求的最优的微服务部署和请求路由的联合决策;
所述动态有向无环转发图的事件触发条件为:
当前时隙内,当前用户请求动态有向无环转发图包含的所有微服务完成部署,并做出细粒度路由决策,才会处理等待队列中的下一个请求流;
所述离散时隙触发条件为:
当前时隙内,所有微服务实例完成部署,才会处理下一个时隙内的所有批量用户请求的微服务实例部署,直到所有时隙内的所有请求被部署完成。
7.如权利要求6所述的动态微服务图部署和概率请求路由的联合优化系统,其特征在于,所述核心数量集合获取模块包括:
路径集合获取单元,与所述服务信息获取模块通信连接,用于获取用户请求集合的所有动态转发路径集合;
转发图获取单元,与所述服务信息获取模块通信连接,用于获取动态有向无环转发图;
转发路径信息获取单元,与所述转发图获取单元通信连接,用于根据获取的动态有向无环转发图的转移边集合,计算获取每条动态转发路径的概率请求到达率和最大可容忍时延;
实例化信息获取单元,与所述路径获取单元通信连接,用于对于时隙内各动态转发路径中的所有请求,计算其所需实例化所需的核心数量和平均时延;
比对单元,与所述转发路径获取单元和所述实例化信息获取单元通信连接,用于比对各动态转发路径的平均响应时延和最大可容忍时延,获取比对工况;
核心数量集合获取单元,与所述比对单元通信连接,用于根据获取的比对工况,控制执行不同的最小核心数量集合的获取策略。
8.如权利要求7所述的动态微服务图部署和概率请求路由的联合优化系统,其特征在于,所述核心数量集合获取单元包括:
核心数量集合获取第一单元,与所述比对单元通信连接,用于若各动态转发路径的平均响应时延不大于最大可容忍时延时,则更新该路径上的所有微服务所需的核心数量集合为获取的各动态转发路径中所有请求所需的实例化所需的核心数量;
核心数量集合获取第二单元,与所述比对单元通信连接,用于若各动态转发路径的平均响应试验大于最大可容忍时延,并且满足资源约束,则循环选择拥有最大集合平均增益的边际微服务增加其核心数,直至各动态转发路径的平均响应时延不大于最大可容忍时延,更新获取最终增加后的最小核心数量集合为各动态转发路径中所有请求所需的实例化的最终增至的核心数量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410158724.2A CN117692503B (zh) | 2024-02-04 | 2024-02-04 | 动态微服务图部署和概率请求路由的联合优化方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410158724.2A CN117692503B (zh) | 2024-02-04 | 2024-02-04 | 动态微服务图部署和概率请求路由的联合优化方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117692503A CN117692503A (zh) | 2024-03-12 |
CN117692503B true CN117692503B (zh) | 2024-04-26 |
Family
ID=90139505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410158724.2A Active CN117692503B (zh) | 2024-02-04 | 2024-02-04 | 动态微服务图部署和概率请求路由的联合优化方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117692503B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110187973A (zh) * | 2019-05-31 | 2019-08-30 | 浙江大学 | 一种面向边缘计算的服务部署优化方法 |
WO2020075017A1 (en) * | 2018-10-12 | 2020-04-16 | International Business Machines Corporation | Auto tuner for cloud micro services embeddings |
CN112087329A (zh) * | 2020-08-27 | 2020-12-15 | 重庆大学 | 一种网络服务功能链部署方法 |
CN112783649A (zh) * | 2021-01-19 | 2021-05-11 | 苏州博纳讯动软件有限公司 | 一种面向云计算的交互感知的容器化微服务资源调度方法 |
CN112799817A (zh) * | 2021-02-02 | 2021-05-14 | 中国科学院计算技术研究所 | 一种微服务资源调度系统和方法 |
CN113595761A (zh) * | 2021-06-25 | 2021-11-02 | 国网辽宁省电力有限公司电力科学研究院 | 电力系统信息通信一体化调度平台的微服务组件优化方法 |
CN113950081A (zh) * | 2021-10-08 | 2022-01-18 | 东北大学 | 一种多单元移动边缘计算中面向微服务的动态服务迁移和请求路由方法 |
KR20220058358A (ko) * | 2020-10-30 | 2022-05-09 | 광주과학기술원 | 마이크로 서비스 배치장치 및 마이크로 서비스 배치방법 |
CN115640117A (zh) * | 2022-03-21 | 2023-01-24 | 同济大学 | 基于资源分配的微服务实例部署方法及装置 |
CN115756771A (zh) * | 2022-10-19 | 2023-03-07 | 中电金信软件有限公司 | 微服务化的前置系统、工作流调度方法及装置 |
CN116233262A (zh) * | 2023-05-07 | 2023-06-06 | 湖北省楚天云有限公司 | 基于边缘网络架构的微服务部署与请求路由方法及系统 |
CN116627660A (zh) * | 2023-07-24 | 2023-08-22 | 湖北省楚天云有限公司 | 一种基于云数据中心的微服务资源配置方法 |
CN116915686A (zh) * | 2023-09-08 | 2023-10-20 | 三峡高科信息技术有限责任公司 | 异构多边缘云协同微服务部署与路由联合优化方法及系统 |
CN117097806A (zh) * | 2023-08-28 | 2023-11-21 | 湖北省楚天云有限公司 | 一种微服务调用图部署和请求路由联合优化方法及系统 |
CN117119043A (zh) * | 2023-08-17 | 2023-11-24 | 中国科学技术大学 | 一种边缘网络拓扑感知的微服务部署方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10945166B2 (en) * | 2017-04-07 | 2021-03-09 | Vapor IO Inc. | Distributed processing for determining network paths |
EP4193302A1 (en) * | 2020-08-05 | 2023-06-14 | Avesha, Inc. | Performing load balancing self adjustment within an application environment |
CN115037628B (zh) * | 2022-05-23 | 2023-08-22 | 郑州轻工业大学 | 一种基于深度强化学习的自适应服务功能链映射方法 |
US20230419139A1 (en) * | 2022-06-28 | 2023-12-28 | Intuit Inc. | Dynamic schema mapping between microservices |
-
2024
- 2024-02-04 CN CN202410158724.2A patent/CN117692503B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020075017A1 (en) * | 2018-10-12 | 2020-04-16 | International Business Machines Corporation | Auto tuner for cloud micro services embeddings |
CN110187973A (zh) * | 2019-05-31 | 2019-08-30 | 浙江大学 | 一种面向边缘计算的服务部署优化方法 |
CN112087329A (zh) * | 2020-08-27 | 2020-12-15 | 重庆大学 | 一种网络服务功能链部署方法 |
KR20220058358A (ko) * | 2020-10-30 | 2022-05-09 | 광주과학기술원 | 마이크로 서비스 배치장치 및 마이크로 서비스 배치방법 |
CN112783649A (zh) * | 2021-01-19 | 2021-05-11 | 苏州博纳讯动软件有限公司 | 一种面向云计算的交互感知的容器化微服务资源调度方法 |
CN112799817A (zh) * | 2021-02-02 | 2021-05-14 | 中国科学院计算技术研究所 | 一种微服务资源调度系统和方法 |
CN113595761A (zh) * | 2021-06-25 | 2021-11-02 | 国网辽宁省电力有限公司电力科学研究院 | 电力系统信息通信一体化调度平台的微服务组件优化方法 |
CN113950081A (zh) * | 2021-10-08 | 2022-01-18 | 东北大学 | 一种多单元移动边缘计算中面向微服务的动态服务迁移和请求路由方法 |
CN115640117A (zh) * | 2022-03-21 | 2023-01-24 | 同济大学 | 基于资源分配的微服务实例部署方法及装置 |
CN115756771A (zh) * | 2022-10-19 | 2023-03-07 | 中电金信软件有限公司 | 微服务化的前置系统、工作流调度方法及装置 |
CN116233262A (zh) * | 2023-05-07 | 2023-06-06 | 湖北省楚天云有限公司 | 基于边缘网络架构的微服务部署与请求路由方法及系统 |
CN116627660A (zh) * | 2023-07-24 | 2023-08-22 | 湖北省楚天云有限公司 | 一种基于云数据中心的微服务资源配置方法 |
CN117119043A (zh) * | 2023-08-17 | 2023-11-24 | 中国科学技术大学 | 一种边缘网络拓扑感知的微服务部署方法 |
CN117097806A (zh) * | 2023-08-28 | 2023-11-21 | 湖北省楚天云有限公司 | 一种微服务调用图部署和请求路由联合优化方法及系统 |
CN116915686A (zh) * | 2023-09-08 | 2023-10-20 | 三峡高科信息技术有限责任公司 | 异构多边缘云协同微服务部署与路由联合优化方法及系统 |
Non-Patent Citations (4)
Title |
---|
Joint Optimization of Service Deployment and Request Routing for Microservices in Mobile Edge Computing;Kai Peng etc al.;《IEEE TRANSACTIONS ON SERVICES COMPUTING》;20240103;全文 * |
主动式微服务细粒度弹性缩放算法研究;彭凯;《计算机工程与应用》;20230721;全文 * |
眼动追踪实验法在信息行为领域的应用研究;李晶;陈志燕;陈明红;;情报学报;20200124(第01期);全文 * |
适用于智能配电网前端微服务的跨系统集成平台优化;方燕琼;唐升卫;顾博川;代仕勇;环境技术;20211231;第39卷(第004期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117692503A (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Khorsand et al. | A self‐learning fuzzy approach for proactive resource provisioning in cloud environment | |
Maia et al. | An improved multi-objective genetic algorithm with heuristic initialization for service placement and load distribution in edge computing | |
Reaidy et al. | Comparison of negotiation protocols in dynamic agent-based manufacturing systems | |
Ko et al. | Design and application of task administration protocols for collaborative production and service systems | |
Marcotte et al. | Optimizing multi-robot communication under bandwidth constraints | |
Villota-Jacome et al. | Admission control for 5G core network slicing based on deep reinforcement learning | |
Bozanta et al. | Courier routing and assignment for food delivery service using reinforcement learning | |
Maia et al. | A multi-objective service placement and load distribution in edge computing | |
Ahmadizar et al. | Group shops scheduling with makespan criterion subject to random release dates and processing times | |
EP1909182B1 (en) | Automated performance prediction for service-oriented architectures | |
Kavuk et al. | Order dispatching for an ultra-fast delivery service via deep reinforcement learning | |
Tekiyehband et al. | An efficient dynamic service provisioning mechanism in fog computing environment: A learning automata approach | |
Shinde et al. | Collaborative reinforcement learning for multi-service internet of vehicles | |
Soto et al. | Towards autonomous VNF auto-scaling using deep reinforcement learning | |
CN113190342B (zh) | 用于云-边协同网络的多应用细粒度卸载的方法与系统架构 | |
Mattia et al. | On real-time scheduling in Fog computing: A Reinforcement Learning algorithm with application to smart cities | |
CN117692503B (zh) | 动态微服务图部署和概率请求路由的联合优化方法及系统 | |
CN116582407A (zh) | 一种基于深度强化学习的容器化微服务编排系统及方法 | |
Saxena et al. | DRL-Based Slice Admission Using Overbooking in 5G Networks | |
Theodoropoulos et al. | GNOSIS: Proactive Image Placement Using Graph Neural Networks & Deep Reinforcement Learning | |
Rochman et al. | Dynamic placement of resources in cloud computing and network applications | |
Bensalem et al. | Towards optimal serverless function scaling in edge computing network | |
Lin et al. | Optimal capacity allocation for web systems with end-to-end delay guarantees | |
JP2008503008A (ja) | エンド・ツウ・エンド遅延保証を含む多層インフラストラクチャのコストを最小限度まで低減するための方法および装置 | |
Bensalem et al. | Scaling Serverless Functions in Edge Networks: A Reinforcement Learning Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |