CN114153607A - 跨节点边缘计算负载均衡方法、设备、可读存储介质 - Google Patents
跨节点边缘计算负载均衡方法、设备、可读存储介质 Download PDFInfo
- Publication number
- CN114153607A CN114153607A CN202111441495.8A CN202111441495A CN114153607A CN 114153607 A CN114153607 A CN 114153607A CN 202111441495 A CN202111441495 A CN 202111441495A CN 114153607 A CN114153607 A CN 114153607A
- Authority
- CN
- China
- Prior art keywords
- edge
- load balancing
- node
- service
- class object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44505—Configuring for program initiating, e.g. using registry, configuration files
- G06F9/4451—User profiles; Roaming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Computer And Data Communications (AREA)
Abstract
本申请实施例公开了一种跨节点边缘计算负载均衡方法、设备、计算机可读存储介质。该方法包括:通过对云端控制服务器的监听确定服务类对象被启用;然后,确定与服务类对象对应的多个服务实例对象,多个服务实例对象部署于包括第一边缘节点在内的多个边缘节点中;最后,根据预设负载均衡策略将访问流量通过隧道分发至多个边缘节点,以使多个边缘节点将接收到的访问流量转发至各自带有的服务实例对象,其中,隧道为通过隧道服务器在多个边缘节点之间建立的通讯链路。如此,通过预设负载均衡策略将访问流量通过隧道分发至多个边缘节点,完成访问流量在各个边缘节点之间的分配,实现边缘节点之间的负载均衡功能。
Description
技术领域
本申请涉及边缘计算技术领域,尤其涉及一种跨节点边缘计算负载均衡方法、设备、计算机可读存储介质。
背景技术
Kubernetes(k8s)是一个开源的,用于管理云平台中多个主机上的容器化的应用,具体功能包括容器的部署和调度,k8s可以让部署容器化的应用简单并且高效,能够自主的管理容器,从而保证云平台中的容器按照用户的期望状态运行。然而,在基于k8s的边缘计算环境中,当边缘节点没有负载均衡功能时,会造成无法负载访问流量,处理能力弱,不满足高可用等问题。
相关技术中,边缘节点之间的网络通常是不通的,实现边缘节点上的负载均衡时,只能通过控制面,通过控制面将访问流量转发到各个边缘节点,但是,如果控制面和边缘节点之间的网络中断,将无法在边缘节点之间实现负载均衡功能。
发明内容
为解决上述技术问题,本申请实施例期望提供一种跨节点边缘计算负载均衡方法、设备、计算机可读存储介质,能够在边缘节点之间实现负载均衡功能。
本申请的技术方案是这样实现的:
本申请提供一种跨节点边缘计算负载均衡方法,应用于第一边缘节点,该包括:
通过对云端控制服务器的监听确定服务类对象被启用;
确定与所述服务类对象对应的多个服务实例对象,所述多个服务实例对象部署于包括所述第一边缘节点在内的多个边缘节点中;
根据预设负载均衡策略将访问流量通过隧道分发至所述多个边缘节点,以使所述多个边缘节点将接收到的所述访问流量转发至各自带有的所述服务实例对象,所述隧道为通过隧道服务器在所述多个边缘节点之间建立的通讯链路。
在一些实施例中,所述通过对云端控制服务器的监听确定服务类对象被启用,包括:
从云端控制服务器中将所述服务类对象的第一信息同步至本地边缘缓存,所述第一信息用于表征所述服务类对象的启用状态;
监控所述本地边缘缓存中的所述第一信息;确定所述服务类对象的启用情况。
在一些实施例中,所述确定与所述服务类对象对应的多个服务实例对象,包括:根据资源对象中记录的第二信息确定所述服务类对象与所述多个服务实例对象的对应关系,所述第二信息为所述服务类对象与所述多个服务实例对象的对应关系信息,所述资源对象存储于云服务器中,所述资源对象与所述服务类对象唯一对应。
在一些实施例中,所述根据预设负载均衡策略将所述访问流量通过隧道分发至多个边缘节点,包括:根据所述预设负载均衡策略配置流量转发列表;按照所述流量转发列表将所述访问流量分发至多个边缘节点。
在一些实施例中,根据所述预设负载均衡策略配置流量转发列表,包括:
获取所述多个服务实例对象的标识信息;
将所述标识信息添加至所述流量转发列表;
通过所述预设负载均衡策略在所述流量转发列表中配置所述访问流量与所述标识信息的对应关系。
在一些实施例中,所述方法还包括:为所述流量转发列表设置与所述服务类对象匹配的域名信息,以使外部对象可根据所述域名信息访问所述流量转发列表。
在一些实施例中,所述方法还包括:确定所述第一边缘节点与所述多个边缘节点中的第二边缘节点建立传输控制协议连接;将所述访问流量发送至传输控制协议服务器,以使所述传输控制协议服务器将所述访问流量转发至所述第二边缘节点。
在一些实施例中,在通过对云端控制服务器的监听确定服务类对象被启用之前,所述方法还包括:接收所述云端控制服务器发送的目标指令,所述目标指令用于指定边缘节点执行负载均衡操作。
本申请实施例提供一种跨节点边缘计算负载均衡设备,应用于第一边缘节点,包括:
存储器,用于存储可执行跨节点边缘计算负载均衡指令;
处理器,用于执行所述存储器中存储的可执行跨节点边缘计算负载均衡指令时,实现本申请实施例提供的跨节点边缘计算负载均衡方法。
本申请实施例提供一种计算机可读存储介质,存储有可执行跨节点边缘计算负载均衡指令,用于引起处理器执行时,实现本申请实施例提供的跨节点边缘计算负载均衡方法。
本申请实施例提供了一种跨节点边缘计算负载均衡方法、设备、计算机可读存储介质,首先,通过对云端控制服务器的监听确定服务类对象被启用,然后,确定与服务类对象对应的多个服务实例对象,多个服务实例对象部署于包括第一边缘节点在内的多个边缘节点中,最后,根据预设负载均衡策略将访问流量通过隧道分发至多个边缘节点,以使多个边缘节点将接收到的访问流量转发至各自带有的服务实例对象,隧道为通过隧道服务器在多个边缘节点之间建立的通讯链路。如此,通过预设负载均衡策略将访问流量通过隧道分发至多个边缘节点,完成访问流量在各个边缘节点之间的分配,实现边缘节点之间的负载均衡功能。
附图说明
图1为本申请实施例提供的一种跨节点边缘计算负载均衡方法的流程示意图;
图2为本申请实施例提供的一种访问流量的分发方法流程示意图;
图3为本申请实施例提供的一种流量转发列表的配置方法流程示意图;
图4为本申请实施例提供的一种边缘计算环境中的负载均衡方法的流程示意图;
图5为本申请实施例提供的一种边缘计算环境中的负载均衡的原理示意图;
图6为本申请实施例提供的一种跨节点边缘计算负载均衡设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例/另一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例/另一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)边缘计算:指在靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台,就近提供最近端服务,其应用程序在边缘侧发起,产生更快的网络服务响应,满足行业在实时业务、应用智能、安全与隐私保护等方面的基本需求。
2)Kubernetes(k8s):一个开源的、用于管理云平台中多个主机上的容器化的应用。
3)边缘节点(Edge node,EN):对边缘网关、边缘控制器、边缘服务器等边缘侧多种产品形态的基础共性能力的逻辑抽象,这些产品形态具备边缘侧实时数据分析、本地数据存储、实时网络联接等共性能力,包括边端节点代理(Edge-core)、容器(Docker)、边端缓存(Cache)、负载均衡器(load balancer,LB)等部分。
4)控制面:k8s控制面,负载传输控制信令,用来控制一个流程建立、维护及释放,包括:集群存储(Etcd)、应用程序接口服务器(API server)、云端控制服务器(Cloud-core)等部分。
5)负载均衡:将负载(工作任务)进行平衡、分摊到多个操作单元上进行运行,负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
6)隧道(Tunnel):计算机网络使用Tunnel协议,当一个网络协议(传输协议)封装不同的有效载荷协议,通过使用Tunnel进行一个不兼容的交互网络的有效载荷,或通过一个不受信任的网络提供一个安全的路径。
在边缘计算环境中,k8s提供了应用部署,规划,更新,维护等机制,Kubeedge等基于k8s的边缘计算平台,因为边缘节点之间的无法进行通信连接,相关技术在边缘节点之间实现负载均衡时,只能通过控制面,在控制面建立负载均衡器,负载均衡器根据负载均衡策略将访问流量从控制面转发到各个边缘节点,这导致数据传输距离加大,同时,从控制面到边缘节点一般使用隧道,这对实现边缘节点之间的负载均衡也是一个挑战,此外,当控制面和边缘节点之间的网络中断,将无法实现边缘节点之间的负载均衡。
本申请实施例提供一种跨节点边缘计算负载均衡方法,应用于第一边缘节点,能够在边缘节点之间实现负载均衡功能。下面,将说明本申请实施例提供的跨节点边缘计算负载均衡方法,如图1所示,为本申请实施例提供的一种跨节点边缘计算负载均衡方法的流程示意图,该方法包括以下步骤:
S101、通过对云端控制服务器的监听确定服务类对象被启用。
需要说明的是,云端控制服务器可以是Cloud-core,Cloud-core属于控制面;服务类对象可以是k8s中可以运行的服务(Service),服务类对象被启用可以是服务类对象在API Server中被创建;第一边缘节点可以是边缘节点集群或者多个边缘节点中的任意一个边缘节点。
在一些实施例中,当第一边缘节点与云端控制服务器建立网络连接,在控制面中的API server中创建服务类对象后,API Server将被创建的服务类对象通过Cloud-core传输至第一边缘节点的Edge-core,并由Edge-core将该服务类对象发送至第一边缘节点的Cache中。
S102、确定与服务类对象对应的多个服务实例对象。
需要说明的是,服务实例对象可以是k8s中的资源Pod,Pod可以是k8s云平台中的虚拟机,Pod内部封装的是由Docker引擎所创建的容器,Pod也可以是一个虚拟化分组,Pod内部可以存储一个或者多个容器。
在一些实施例中,一个服务类对象可以与多个服务实例对象对应,在实际中,Service资源基于标签选择器将一组Pod定义成一个逻辑组合,并通过自己的IP地址和端口调度代理请求至组内的Pod对象之上,它向客户端隐藏了真实的、处理用户访问请求的Pod资源,使得客户端的访问请求看上去就像是由Service直接处理并进行响应的一样,当服务类对象创建后,与之对应的多个服务实例对象便随之确定。
在一些实施例中,多个服务实例对象部署于包括第一边缘节点在内的多个边缘节点中,在服务类对象创建之前,多个服务实例对象就已经完成部署,多个服务实例对象可以均部署在第一边缘节点,也可以部署在第一边缘节点和除去第一边缘节点的其他边缘节点,例如,有3个服务实例对象Pod1,Pod2和Pod3,2个边缘节点,在对3个服务实例对象进行部署时,Pod1,Pod2和Pod3可以均部署在第一个边缘节点上,也可以均部署在第2个边缘节点上,也可以是Pod1和Pod2部署在第一个边缘节点,Pod3部署在第二个边缘节点上等。
S103、根据预设负载均衡策略将访问流量通过隧道分发至多个边缘节点,以使多个边缘节点将接收到的访问流量转发至各自带有的服务实例对象。
需要说明的是,访问流量可以是客户端向第一边缘节点发送的访问请求,访问请求可以是一个或者多个,负载均衡策略可以包括根据访问流量所需的处理能力信息和服务实例对象的负载信息确定的具体向哪一个边缘节点转发。
在一些实施例中,隧道为通过隧道服务器在多个边缘节点之间建立的通讯链路,隧道服务器位于云端,隧道可以建立在第一边缘节点和隧道服务器之间,也可以建立隧道服务器与其他边缘节点之间。
在实际中,若需要将第一边缘节点中的访问流量转发至其他边缘节点的Pod时,访问流量可以通过第一边缘节点与隧道服务器之间的隧道转发至隧道服务器,再由隧道服务器与其他边缘节点之间的隧道将访问流量转发至其他边缘节点,从而实现访问流量在第一边缘节点和其他边缘节点之间的转发。
可以理解的是,通过在隧道服务器和边缘节点之间建立隧道,实现了访问流量在各个边缘节点之间的转发,同时,访问流量可以通过隧道直接转发至任意一个边缘节点,减小了数据的传输距离。此外,访问流量的转发并不完全依赖于控制面,当控制面和边缘节点之间的网络断开后,仍然可以实现各个边缘节点之间的负载均衡功能。
本申请实施例中,通过对云端控制服务器的监听确定服务类对象被启用,然后,确定与服务类对象对应的多个服务实例对象,多个服务实例对象部署于包括第一边缘节点在内的多个边缘节点中,最后,根据预设负载均衡策略将访问流量通过隧道分发至多个边缘节点,以使多个边缘节点将接收到的访问流量转发至各自带有的服务实例对象。如此,通过预设负载均衡策略将访问流量通过隧道分发至多个边缘节点,完成访问流量在各个边缘节点之间的分配,实现边缘节点之间的负载均衡功能。
在一些实施例中,上述S101“通过对云端控制服务器的监听确定服务类对象被启用”,可以通过下述的S1011至S1012实现,以下对各个步骤进行说明。
S1011、从云端控制服务器中将服务类对象的第一信息同步至本地边缘缓存。
在一些实施例中,本地边缘缓存可以是在第一边缘节点中的建立的边端缓存Cache,Cache通过Edge-core监听API Server,实时获取服务类对象,在API Server中创建服务类对象后,将获取的服务类对象保存至本地边缘缓存中。第一信息用于表征服务类对象的启用状态,服务类对象的启用状态包括服务类对象被创建和服务类对象未被创建。
S1012、监控本地边缘缓存中的第一信息,确定服务类对象的启用情况。
在一些实施例中,可以由第一边缘节点中的LB监听本地边缘缓存中的是否有服务类对象被创建,当有服务类对象被创建,则确定启用服务类对象;若没有服务类对象被创建,表明没有可以使用的服务类对象,此时,继续由LB监听本地边缘缓存中服务类对象的启用情况。
在一些实施例中,上述步骤S102“确定与服务类对象对应的多个服务实例对象”,在实现时,可以根据资源对象中记录的第二信息确定服务类对象与多个服务实例对象的对应关系,其中,第二信息为服务类对象与多个服务实例对象的对应关系信息。
需要说明的是,资源对象可以是k8s中的Endpoint,资源对象存储于云服务器中,在实际应用中资源对象可以存储在Etcd中,资源对象与服务类对象唯一对应,且与服务对象同名,用来记录一个服务对象对应的所有服务实例对象的访问地址。
在一些实施例中,上述步骤S103“根据预设负载均衡策略将访问流量通过隧道分发至多个边缘节点”可以通过如图2所示的步骤S201和步骤S202实现,以下结合图2对各个步骤进行说明。
S201、根据负载均衡策略配置流量转发列表。
在一些实施例中,流量转发列表可以在第一边缘节点的LB中创建,流量转发列表记录了包括当前服务对象和当前服务对象对应的多个服务实例对象的信息,负载均衡策略可以是根据访问流量所需的处理能力信息,将访问流量分发给转发列表中服务对象对应的不同服务实例对象。
S202、按照流量转发列表将访问流量分发至多个边缘节点。
需要说明的是,第一边缘节点收到客户端将发送的访问流量后,可以由第一边缘节点的LB根据负载均衡策略,在流量转发列表中对服务对象对应的多个服务实例对象进行负载均衡,确定访问流量需要发送的一个或多个服务实例对象,根据一个或多个服务实例对象所在的边缘节点,将访问流量发送至各个服务对象所在的边缘节点。
示例性地,若通过负载均衡策略,确定需要将访问流量发送至Pod1,Pod3和Pod6中,而Pod1和Pod3部署于第一边缘节点,Pod6部署于第二边缘节点,此时,需要将访问流量分别转发至第一边缘节点和第二边缘节点中。在实现时,如果第一边缘节点和第二边缘节点位于同一网段,则在第一边缘节点中的访问流量可以直接转发至第二边缘节点;如果第一边缘节点和第二边缘节点位于不同网段,则需要通过隧道,将访问流量先转发至云端的隧道服务器,再由隧道服务器将访问流量转发至第二边缘节点。
可以理解的是,通过根据负载均衡策略配置流量转发列表,并按照流量转发列表将访问流量分发至多个边缘节点,实现了访问流量在服务对象对应的多个服务实例对象之间的分配,而多个服务实例对象可能位于多个边缘节点,从而实现了多个边缘节点之间的负载均衡功能。
通过步骤S201和步骤S202也即实现了根据预设负载均衡策略将所述访问流量通过隧道分发至多个边缘节点,在一些实施例中,在步骤S202之后,还可以通过以下步骤:
S203、为流量转发列表设置与服务类对象匹配的域名信息,以使外部对象可根据域名信息访问流量转发列表。
需要说明的是,设置与服务对象匹配的域名可以是为服务对象创建对应的域名信息,例如,服务对象Service对应的域名信息可以是:xxx.cluster.local,通过该域名信息,外部对象例如客户端用户,可以直接访问流量转发列表中对应的服务实例对象的IP地址和端口,进一步地,使用流量转发列表中的服务实例对象对应的边缘节点进行访问流量的负载。
可以理解的是,通过在转发列表中为服务对象设置对应的域名信息,使得外部访问对象可以通过该域名信息直接访问流量转发列表,进而根据流量转发列表中的服务实例对象以及预设负载均衡策略,对外部访问对象的访问流量进行负载均衡。
如图3所示,为本申请实施例提供的一种流量转发列表的配置方法流程示意图,在本申请的一些实施例中,上述步骤S201“根据预设负载均衡策略配置流量转发列表”可以通过下述的S2011至S2013实现,以下结合图3对各个步骤进行说明。
S2011、获取多个服务实例对象的标识信息。
在一些实施例中,服务实例对象的标识信息可以是服务实例对象的IP地址和端口信息,每一个服务实例对象都有各自对应的IP地址,且互不相同,一个或多个服务实例对象的端口信息可以相同,也可以不同,当多个服务实例对象对应的端口信息相同时,表明各个服务实例对象位于同一端口,但是各个服务实例对象具有不同的IP地址。示例性地,两个服务实例对象Pod1和Pod2的端口均为2222,而Pod1的IP地址为172.16.233.2,Pod2的IP地址为172.16.233.3。
S2012、将标识信息添加至流量转发列表。
需要说明的是,服务对象标识对应的标识信息记录在资源对象中,在进行流量转发列表配置时,将各个服务实例对象各自对应的标识信息添加到转发列表中相应的位置,确保当前服务实例对象和该服务实例对象的标识信息之间的对应关系正确。
S2013、通过预设负载均衡策略在流量转发列表中配置访问流量与标识信息的对应关系。
需要说明的是,预设负载均衡策略可以是预先设定的负载均衡规则,例如可以是轮询法、随机法和最小连接法等。示例性地,当预负载均衡策略采用轮询法时,第一边缘节点上的LB便会将访问流量轮流分配给各个服务实例对象,各个服务实例对象均对该访问流量进行处理。
在一些实施例中,使用预设负载均衡策略对当前流量转发列表进行配置时,可以将服务实例对象对应的标识信息与当前访问信息进行绑定,例如,Pod1和Pod2各自对应的IP地址分别为:172.16.233.2和172.16.233.3,二者的端口号均为2222,当确定使用服务实例对象Pod1和Pod2对当前访问流量负载时,在流量转发列表中,将Pod1和Pod2的IP和端口信息与当前的访问流量相关联。
可以理解的是,通过在流量转发列表中配置访问流量与服务对象的标识信息之间的对应关系,可以实现当前访问流量与需要对当前访问流量进行负载的服务对象之间的绑定,从而可以根据被绑定的服务实例对象的标识信息,将访问流量转发至相应的服务实例对象。
基于前述的实施例,本申请实施例再提供一种跨节点边缘计算负载均衡方法,应用于当访问流量为传输控制协议访问流量的场景,该跨节点边缘计算负载均衡方法,可以包括下述步骤:
S301、通过对云端控制服务器的监听确定服务类对象被启用。
需要说明的是,云端控制服务器可以是Cloud-core,Cloud-core属于控制面;服务类对象可以是k8s中可以运行的服务(Service),服务类对象被启用可以是服务类对象在API Server中被创建。
在一些实施例中,当第一边缘节点与云端控制服务器建立网络连接,在控制面中的API server中创建服务类对象后,API Server将被创建的服务类对象通过Cloud-core传输至第一边缘节点的Edge-core,并由Edge-core将该服务类对象发送至第一边缘节点的Cache中。
S302、确定与服务类对象对应的多个服务实例对象。
需要说明的是,服务实例对象可以是k8s中的资源Pod,Pod可以是k8s云平台中的虚拟机,Pod内部封装的是由Docker引擎所创建的容器,Pod也可以是一个虚拟化分组,Pod内部可以存储一个或者多个容器。
在一些实施例中,一个服务类对象可以与多个服务实例对象对应,在实际中,Service资源基于标签选择器将一组Pod定义成一个逻辑组合,并通过自己的IP地址和端口调度代理请求至组内的Pod对象之上,它向客户端隐藏了真实的、处理用户访问请求的Pod资源,使得客户端的访问请求看上去就像是由Service直接处理并进行响应的一样,当服务类对象创建后,与之对应的多个服务实例对象便随之确定。
S303、当访问流量为传输控制协议访问流量时,根据预设负载均衡策略将传输控制协议访问流量通过隧道分发至多个边缘节点,以使多个边缘节点将接收到的传输控制协议访问流量转发至各自带有的服务实例对象。
需要说明的是,当访问流量为传输控制协议访问流量时,即访问流量的转发需要先建立连接时,确定第一边缘节点与多个边缘节点中的第二边缘节点建立传输控制协议连接。
需要说明的是,第二边缘节点可以是多个边缘节点中除去第一边缘节点的一个或多个边缘节点,第二边缘节点可以是根据负载均衡策略,需要将访问流量转发到的服务实例对象对应的边缘节点。传输控制协议连接可以将第一边缘节点和第二边缘节点进行连接,在建立了该连接之后,可以将传输控制协议访问流量由第一边缘节点转发至第二边缘节点。
S304、将访问流量发送至传输控制协议服务器,以使传输控制协议服务器将访问流量转发至第二边缘节点。
在一些实施例中,在第一边缘节点中的建立传输控制协议服务器,若确定访问流量转发需要建立传输控制协议连接时,则根据预设负载均衡策略,通过第一边缘节点中的LB,将访问流量发送至传输控制协议服务器,由传输控制协议服务器将该访问流量转发至第一边缘节点中的服务实例对象,或者当第一边缘节点和第二边缘节点位于不同的网段时,通过第一边缘节点和隧道服务器之间的隧道,由传输控制协议服务器将该访问流量转发至云端的隧道服务器,再通过隧道服务器和第二边缘节点之间的隧道,由隧道服务器将该访问流量转发至第二边缘节点,以使第二边缘节点将接收到的传输控制协议访问流量转发至各自带有的服务实例对象。
可以理解的是,通过建立传输控制协议服务器,并在第一边缘节点和第二边缘节点之间建立传输控制协议连接,使得当访问流量转发需要建立传输控制协议连接时,可以通过传输控制协议服务器将访问流量转发至第二边缘节点,实现多个边缘节点之间的负载均衡。
在本申请的一些实施例中,在通过对云端控制服务器的监听确定服务类对象被启用之前,即S101之前,本申请提供的跨节点边缘计算负载均衡方法还可以包括:接收云端控制服务器发送的目标指令。
需要说明的是,目标指令用于指定边缘节点执行负载均衡操作,目标指令可以是当创建服务对象之后,也可以是收到访问流量之后,也可以是其他任何合适的时机,云端控制服务器通过第一边缘节点的Edge-core发送的执行负载均衡操作的指令,当然此处对云端控制服务器发送目标指令的时机只是示例性地说明,不做具体限定。Edge-core收到该目标指令之后,将该目标指令转发至LB,由LB开启并执行负载均衡操作。
在一些实施例中,当第一边缘节点与云端控制服务器之间的网络断开后,第一边缘节点获取网络断开之前从云服务器获取到的服务对象和服务对象对应的服务实例对象,并保存在Cache中。根据第一边缘节点在网络断开前收到的目标指令,确定执行负载均衡时,基于Cache中保存的服务对象和服务对象对应的服务实例对象和预设负载均衡策略,将访问流量通过隧道分发至多个边缘节点。
在另一些实施例中,当第一边缘节点与云端控制服务器之间的网络连接恢复后,重新从云端控制服务器获取服务对象和服务对象对应的服务实例对象,更新缓存空间中的服务对象和服务对象对应的服务实例对象。当第一边缘节点收到云端控制服务器发送的目标指令,确定需要执行负载均衡时,基于更新后的服务对象和服务对象对应的服务实例对象和预设负载均衡策略,将访问流量通过隧道分发至多个边缘节点。
可以理解的是,本申请实施例提供的跨节点边缘计算负载均衡方法,可以实现不同边缘节点,包括跨不同网段边缘节点之间的负载均衡。同时,在边缘节点中设置的LB避免了控制面负载均衡器的网络中断后无法进行访问流量转发的情况,使得当控制面和边缘节点边之间网络中断后,边缘节点也有负载均衡能力。此外,当访问流量需要进行传输控制协议连接时,也可以实现边缘节点之间的的负载均衡。
下面,对本申请实施例在实际应用场景中的实现过程进行介绍。
本申请实施例提供的一种边缘计算环境中的负载均衡方法,该方法基于边缘集群的控制面和数据面,在一些实施例中,边缘集群的控制面是k8s控制面,包括:etcd、APIServer和Cloud-core(云端控制服务器),边缘集群的数据面是边缘节点,包括Edge-core、Docker、Cache(本地边缘缓存)和LB。
如图4所示,为本申请实施例提供的一种边缘计算环境中的负载均衡方法的流程示意图,本申请实施例提供的边缘计算环境中的负载均衡方法,可以通过下述的S401至S404来实现,以下对各个步骤进行说明。
S401、Cache监听API Server(云端控制服务器),获取Service对象(服务类对象)和Endpoints对象(资源对象)。
图5为本申请实施例提供的一种边缘计算环境中的负载均衡的原理示意图,如图5所示,边缘节点1(第一边缘节点)中的Edge-core通过Cloud-core监听控制面中的APIServer,以实现同步云端的Service、Endpoints和Pod(服务实例对象)等对象,并将同步的信息存储至Cache中(从云端控制服务器中将服务类对象的第一信息同步至本地边缘缓存)。当边缘节点1的LB监听边端Cache中的有Service对象被创建(监控本地边缘缓存中的第一信息),LB根据Service的名称查找本地缓存中的Endpoints对象,Endpoints对象记录了与Service相关联的Pod对象的识别信息(资源对象中记录的第二信息确定服务类对象与多个服务实例对象的对应关系),识别信息(服务实例对象的标识信息)包括IP地址和端口(Port),这些Pod对象可以运行在本边缘节点(第一边缘节点),也可能运行在其他边缘节点。
在一些实施例中,当控制面和边缘节点1之间网络中断时,Cache保持本地缓存中的Service、Endpoints和Pod等对象的状态不变,以便为边缘节点1提供稳定的应用状态;当控制面和边缘节点1之间网络恢复时,Cache重新与API Server建立连接,监听Service、Endpoints和Pod等对象,更新Cache中缓存的对象信息。
S402、基于Service对象和后端转发列表(流量转发列表),建立负载均衡规则。
需要说明的是,通过为Service对象创建对应的域名(设置与服务类对象匹配的域名信息),可以供外部客户端访问。在实现时,负载均衡规则可以是将Endpoints对象中记录的Pod对象的IP和Port添加到与为Service对象创建的域名相对应的后端转发列表中(将标识信息添加至流量转发列表),从而外部客户端可以通过访问该域名对应的转发列表中的Pod对象。
在一些实施例中,若后端转发列表中的Service对象被删除时,边缘节点1中的LB会将Service对象对应的Pod对象的IP和Port从后端转发列表中移除。当下一次创建新的Service对象时,后端转发列表中记录新的Service对象与新的Service对象对应的Pod对象的IP和Port。
S403、根据负载均衡算法(预设负载均衡策略)对后端转发列表进行流量(访问流量)负载。
后端转发列表中记录了可以对流量进行负载的Pod对象的IP和Port,负载均衡策略可以是根据轮训法、最小连接数等方法确定的Pod对象,根据被确定的Pod对象的IP和Port,将流量转发至Pod对象对应的边缘节点,实现边缘节点的的负载均衡。
在一些实施例中,当流量进行访问需要建立传输控制协议(TransmissionControl Protocol,TCP)连接时,可以实现TCP流量的负载均衡,在实现时,可以在边缘节点1中部署TCP代理(传输控制协议服务器),当边缘节点1的LB接收到TCP连接时,将TCP连接转发到TCP代理,由TCP代理来转发流量到Pod对象中。
S404、在控制面和边缘节点之间建立隧道,以实现流量在不同边缘节点之间的转发。
如图5所示,在云端的Tunnel-Server(隧道服务器)与所有边缘节点之间建立隧道,保证不同网段的边缘节点之间能相互通信。如果Pod对象分布在不同网段中,则需要经过隧道传递流量,在实际中,如图5所示,边缘节点1中的LB将流量传给本地的Tunnel,Tunnel将流量传给云端的Tunnel-Server,云端Tunnel-Server再将流量转发给不同网段的边缘节点的Tunnel,例如图5中所示的边缘节点3中的Tunnel,再由边缘节点3中的Tunnel转发给Pod,完成流量在不同边缘节点之间的转发。
在一些实施例中,如果Pod对象分布在不同的边缘节点中,且不同边缘节点位于同一网段,例如图5中Pod1和Pod2位于边缘节点1,Pod3位于边缘节点2,边缘节点1和边缘节点2位于同一网段,此时,流量可以直接通过边缘节点1中的LB将流量转发给边缘节点1中的Pod1和Pod2,以及边缘节点2中的Pod3;如果Pod对象分布在不同的边缘节点中,且不同边缘节点位于不同网段,例如图5中的Pod4位于边缘节点3,但是边缘节点2和边缘节点3位于不同的网络,当需要将流量转发至Pod4时,需要通过隧道的方式,先通过边缘节点1与Tunnel-Server之间的隧道将流量转发至Tunnel-Server,在通过边缘节点3和云端的Tunnel-Server之间的隧道将流量转发给边缘节点3中的Pod4。
可以理解的是,本申请实施例提供的边缘计算环境中的负载均衡方法,可以完成在不同边缘节点之间的流量转发,实现跨不同网段边缘节点之间的负载均衡。同时,在云端和边缘节点之间的网络中断后,边缘节点仍有负载均衡能力,当流量进行访问需要建立TCP连接时,也可以针对TCP流量实现边缘节点之间的负载均衡。
本申请实施例还提供一种跨节点边缘计算负载均衡设备,图6为本申请实施例提供的一种跨节点边缘计算负载均衡设备的结构示意图,如图6所示,跨节点边缘计算负载均衡设备1包括:存储器11,用于存储可执行可执行跨节点边缘计算负载均衡指令;处理器12,用于执行存储器中存储的可执行可执行跨节点边缘计算负载均衡指令时,实现本申请实施例提供的方法,例如,实现本申请实施例提供的可执行跨节点边缘计算负载均衡方法。在一些实施例中,跨节点边缘计算负载均衡设备1还可以包括通信接口13,和用于连接存储器11、处理器12,以及通信接口13的总线14。
在本申请实施例中,上述处理器12可以为特定用途集成电路(ApplicationSpecific Integrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital Signal Processing Device,DSPD)、可编程逻辑装置(ProgRAMmable Logic Device,PLD)、现场可编程门阵列(Field ProgRAMmable GateArray,FPGA)、中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器中的至少一种。可以理解的是,对于不同的设备,用于实现上述处理器功能的电子器件还可以为其它,本申请实施例对此不作具体限定。
在本申请实施例中,总线14用于连接通信接口13、处理器11以及存储器12以及这些器件之间的相互通信。
在本申请实施例中,上述处理器11,用于通过对云端控制服务器的监听确定服务类对象被启用;确定与所述服务类对象对应的多个服务实例对象,所述多个服务实例对象部署于包括所述第一边缘节点在内的多个边缘节点中;根据预设负载均衡策略将访问流量通过隧道分发至所述多个边缘节点,以使所述多个边缘节点将接收到的所述访问流量转发至各自带有的所述服务实例对象,所述隧道为通过隧道服务器在所述多个边缘节点之间建立的通讯链路。
跨节点边缘计算负载均衡设备1中存储器12可以与处理器11连接,存储器12用于存储可执行程序代码和数据,该程序代码包括计算机操作指令,存储器12可能包含高速RAM存储器,也可能还包括非易失性存储器,例如,至少两个磁盘存储器。在实际应用中,上述存储器12可以是易失性存储器(volatile memory),例如随机存取存储器(Random-AccessMemory,RAM);或者非易失性存储器(non-volatile memory),例如只读存储器(Read-OnlyMemory,ROM),快闪存储器(flash memory),硬盘(Hard Disk Drive,HDD)或固态硬盘(Solid-State Drive,SSD);或者上述种类的存储器的组合,并向处理器11提供指令和数据。
本申请实施例还提供一种计算机可读存储介质,存储有可执行跨节点边缘计算负载均衡指令,用于引起处理器12执行时,实现本申请实施例提供的方法,例如,本申请实施例提供的可执行跨节点边缘计算负载均衡方法。示例性的,本实施例中的跨节点边缘计算负载均衡方法指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中的与一种跨节点边缘计算负载均衡方法对应的程序指令被一电子设备读取或被执行时,可以实现如上述任一实施例所述的跨节点边缘计算负载均衡方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统,或计算机程序产品。因此,本申请可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。
Claims (10)
1.一种跨节点边缘计算负载均衡方法,应用于第一边缘节点,所述方法包括:
通过对云端控制服务器的监听确定服务类对象被启用;
确定与所述服务类对象对应的多个服务实例对象,所述多个服务实例对象部署于包括所述第一边缘节点在内的多个边缘节点中;
根据预设负载均衡策略将访问流量通过隧道分发至所述多个边缘节点,以使所述多个边缘节点将接收到的所述访问流量转发至各自带有的所述服务实例对象,所述隧道为通过隧道服务器在所述多个边缘节点之间建立的通讯链路。
2.根据权利要求1所述的方法,所述通过对云端控制服务器的监听确定服务类对象被启用,包括:
从云端控制服务器中将所述服务类对象的第一信息同步至本地边缘缓存,所述第一信息用于表征所述服务类对象的启用状态;
监控所述本地边缘缓存中的所述第一信息;
确定所述服务类对象的启用情况。
3.根据权利要求1所述的方法,所述确定与所述服务类对象对应的多个服务实例对象,包括:
根据资源对象中记录的第二信息确定所述服务类对象与所述多个服务实例对象的对应关系,所述第二信息为所述服务类对象与所述多个服务实例对象的对应关系信息,所述资源对象存储于云服务器中,所述资源对象与所述服务类对象唯一对应。
4.根据权利要求1所述的方法,所述根据预设负载均衡策略将所述访问流量通过隧道分发至多个边缘节点,包括:
根据所述预设负载均衡策略配置流量转发列表;
按照所述流量转发列表将所述访问流量分发至多个边缘节点。
5.根据权利要求4所述的方法,根据所述预设负载均衡策略配置流量转发列表,包括:
获取所述多个服务实例对象的标识信息;
将所述标识信息添加至所述流量转发列表;
通过所述预设负载均衡策略在所述流量转发列表中配置所述访问流量与所述标识信息的对应关系。
6.根据权利要求4所述方法,所述方法还包括:为所述流量转发列表设置与所述服务类对象匹配的域名信息,以使外部对象可根据所述域名信息访问所述流量转发列表。
7.根据权利要求1所述的方法,所述方法还包括:
确定所述第一边缘节点与所述多个边缘节点中的第二边缘节点建立传输控制协议连接;
将所述访问流量发送至传输控制协议服务器,以使所述传输控制协议服务器将所述访问流量转发至所述第二边缘节点。
8.根据权利要求1所述的方法,在通过对云端控制服务器的监听确定服务类对象被启用之前,所述方法还包括:
接收所述云端控制服务器发送的目标指令,所述目标指令用于指定边缘节点执行负载均衡操作。
9.一种跨节点边缘计算负载均衡设备,应用于第一边缘节点,包括:
存储器,用于存储可执行跨节点边缘计算负载均衡指令;
处理器,用于执行所述存储器中存储的可执行跨节点边缘计算负载均衡指令时,实现权利要求1至8任一项所述的方法。
10.一种计算机可读存储介质,存储有可执行跨节点边缘计算负载均衡指令,用于引起处理器执行时,实现如权利要求1至8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111441495.8A CN114153607A (zh) | 2021-11-30 | 2021-11-30 | 跨节点边缘计算负载均衡方法、设备、可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111441495.8A CN114153607A (zh) | 2021-11-30 | 2021-11-30 | 跨节点边缘计算负载均衡方法、设备、可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114153607A true CN114153607A (zh) | 2022-03-08 |
Family
ID=80455120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111441495.8A Pending CN114153607A (zh) | 2021-11-30 | 2021-11-30 | 跨节点边缘计算负载均衡方法、设备、可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114153607A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114979144A (zh) * | 2022-05-19 | 2022-08-30 | 中国电信股份有限公司 | 云边通信方法、装置及电子设备 |
CN115412555A (zh) * | 2022-08-19 | 2022-11-29 | 苏州浪潮智能科技有限公司 | 一种云边通信方法、装置、设备及计算机可读存储介质 |
-
2021
- 2021-11-30 CN CN202111441495.8A patent/CN114153607A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114979144A (zh) * | 2022-05-19 | 2022-08-30 | 中国电信股份有限公司 | 云边通信方法、装置及电子设备 |
CN114979144B (zh) * | 2022-05-19 | 2023-10-31 | 中国电信股份有限公司 | 云边通信方法、装置及电子设备 |
CN115412555A (zh) * | 2022-08-19 | 2022-11-29 | 苏州浪潮智能科技有限公司 | 一种云边通信方法、装置、设备及计算机可读存储介质 |
CN115412555B (zh) * | 2022-08-19 | 2024-06-21 | 苏州浪潮智能科技有限公司 | 一种云边通信方法、装置、设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11218537B2 (en) | Load balancing in distributed computing systems | |
US11429369B2 (en) | Distributed upgrade in virtualized computing environments | |
US10735499B2 (en) | Virtual network interface multiplexing | |
US9547502B2 (en) | Rebooting InfiniBand clusters | |
CN105376303A (zh) | 一种Docker实现系统及其通信方法 | |
TWI736657B (zh) | 虛擬互聯網協定位址的切換方法及裝置 | |
US10318550B2 (en) | Systems and methods for autonomous resource discovery, management, and stitching | |
US10594586B2 (en) | Dialing test method, dialing test system, and computing node | |
CN105429938B (zh) | 一种资源配置方法及装置 | |
CN103746977A (zh) | 一种Linux服务器的连接方法和装置 | |
CN111880902A (zh) | 一种pod创建方法、装置、设备及可读存储介质 | |
US9602331B2 (en) | Shared interface among multiple compute units | |
CN114153607A (zh) | 跨节点边缘计算负载均衡方法、设备、可读存储介质 | |
US20120117246A1 (en) | Method And System For The Efficient And Automated Management of Virtual Networks | |
US10237235B1 (en) | System for network address translation | |
CN113014611B (zh) | 一种负载均衡方法及相关设备 | |
CN110830574B (zh) | 一种基于docker容器实现内网负载均衡的方法 | |
US11665090B1 (en) | Using fast-path nodes of packet processing services as intermediaries for workload migration workflows | |
Lee et al. | High-performance software load balancer for cloud-native architecture | |
US9882972B2 (en) | Packet forwarding optimization without an intervening load balancing node | |
CN106797384A (zh) | 以不同的协议将请求路由到集群中的相同端点 | |
CN114050998A (zh) | 实现远程直接内存访问的方法、装置、电子设备及介质 | |
US20240089352A1 (en) | Udp message distribution method, udp message distribution apparatus, electronic device and computer readable storage medium | |
CN107819708A (zh) | 基于虚拟机迁移的数据处理方法、系统及设备 | |
US11799950B1 (en) | Seamless migration of packet processing workloads between exception path node groups |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |