CN112737966A - 一种负载均衡方法及相关装置 - Google Patents

一种负载均衡方法及相关装置 Download PDF

Info

Publication number
CN112737966A
CN112737966A CN202011539326.3A CN202011539326A CN112737966A CN 112737966 A CN112737966 A CN 112737966A CN 202011539326 A CN202011539326 A CN 202011539326A CN 112737966 A CN112737966 A CN 112737966A
Authority
CN
China
Prior art keywords
load balancing
data
protocol stack
network card
forwarded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011539326.3A
Other languages
English (en)
Inventor
孙希发
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Inspur Data Technology Co Ltd
Original Assignee
Beijing Inspur Data Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Inspur Data Technology Co Ltd filed Critical Beijing Inspur Data Technology Co Ltd
Priority to CN202011539326.3A priority Critical patent/CN112737966A/zh
Publication of CN112737966A publication Critical patent/CN112737966A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • H04L47/125Avoiding congestion; Recovering from congestion by balancing the load, e.g. traffic engineering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/24Multipath
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/90Buffering arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/30Definitions, standards or architectural aspects of layered protocol stacks
    • H04L69/32Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
    • H04L69/322Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions
    • H04L69/326Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions in the transport layer [OSI layer 4]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2212/00Encapsulation of packets

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本申请公开了一种负载均衡方法,包括:负载均衡服务器控制多个网卡队列接收通过ECMP协议分发的流量数据;采用与每个网卡队列绑定的CPU对流量数据进行解封处理,得到待转发数据;通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将待转发数据进行封装转发。通过绑定的CPU对接收到的流量数据进行解封处理,进一步通过Nginx的负载均衡功能采用轻量级IP协议栈将数据进行封装转发,而不是采用Linux内核的网络协议栈进行处理,提高了负载均衡的处理能力,进一步提高了负载均衡的性能。本申请还公开了一种负载均衡装置、服务器以及计算机可读存储介质,具有以上有益效果。

Description

一种负载均衡方法及相关装置
技术领域
本申请涉及计算机技术领域,特别涉及一种负载均衡方法、负载均衡装置、服务器以及计算机可读存储介质。
背景技术
目前为了保持入口流量的稳定运行,一般采用四层负载均衡。四层负载均衡工作在OSI(Open System Interconnection Reference Model,开放式系统互联通信参考模型)模型的传输层,由于在传输层,只有TCP(Transmission Control Protocol,传输控制协议)/UDP(User Datagram Protocol,用户数据报协议)协议,这两种协议中除了包含源IP(Internet Protocol,网际互连协议)、目标IP以外,还包含源端口号及目的端口号。四层负载均衡服务器在接收到客户端请求后,通过修改数据包的地址信息将流量转发到应用服务器。
相关技术中,一般软负载均衡方案是基于Linux内核的网络协议栈,但是随着网卡速率的不断提升,Linux内核的处理能力降低了网络交换的效率,进一步的降低了实现的软负载均衡的效率,也降低了负载均衡性能。
因此,如何提高负载均衡的性能是本领域技术人员关注的重点问题。
发明内容
本申请的目的是提供一种负载均衡方法、负载均衡装置、服务器以及计算机可读存储介质,通过绑定的CPU对接收到的流量数据进行解封处理,进一步通过Nginx的负载均衡功能采用轻量级IP协议栈将数据进行封装转发,而不是采用Linux内核的网络协议栈进行处理,提高了负载均衡的处理能力,进一步提高了负载均衡的性能。
为解决上述技术问题,本申请提供一种负载均衡方法,包括:
负载均衡服务器控制多个网卡队列接收通过ECMP协议分发的流量数据;
采用与每个网卡队列绑定的CPU对所述流量数据进行解封处理,得到待转发数据;
通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将所述待转发数据进行封装转发。
可选的,采用与每个网卡队列绑定的CPU对所述流量数据进行解封处理,得到待转发数据,包括:
根据DPDK库确定每个网卡队列绑定的CPU;
每个网卡队列将流量数据发送至对应的CPU中,控制所述CPU对接收到的流量数据进行解封处理,得到待转发数据。
可选的,通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将所述待转发数据进行封装转发,包括:
通过配置的所述Nginx的负载均衡功能对所述待换发数据确定对应的转发地址;
采用所述轻量级IP协议栈将所述待转发数据进行封装,并根据对应的转发地址进行发送。
可选的,在所述将所述待转发数据进行封装转发的步骤之前,还包括:
将移植的FreeBSD用户空间协议栈进行配置,得到所述轻量级IP协议栈。
可选的,还包括:
交换机根据所述ECMP协议将接收到的原始流量数据分流发送至所述多个网卡队列。
可选的,还包括:
所述负载均衡服务器的控制平面CPU通过无锁队列与所述多个网卡队列对应的CPU进行通信。
本申请还提供一种负载均衡装置,包括:
流量数据接收模块,用于控制多个网卡队列接收通过ECMP协议分发的流量数据;
解封处理模块,用于采用与每个网卡队列绑定的CPU对所述流量数据进行解封处理,得到待转发数据;
封装转发模块,用于通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将所述待转发数据进行封装转发。
可选的,还包括:
协议栈获取模块,用于将移植的FreeBSD用户空间协议栈进行配置,得到所述轻量级IP协议栈。
可选的,还包括:
交换机,用于根据所述ECMP协议将接收到的原始流量数据分流发送至所述多个网卡队列。
可选的,还包括:
控制平面CPU,用于通过无锁队列与所述多个网卡队列对应的CPU进行通信。
本申请还提供一种服务器,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上所述的负载均衡方法的步骤。
本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的负载均衡方法的步骤。
本申请所提供的一种负载均衡方法,包括:负载均衡服务器控制多个网卡队列接收通过ECMP协议分发的流量数据;采用与每个网卡队列绑定的CPU对所述流量数据进行解封处理,得到待转发数据;通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将所述待转发数据进行封装转发。
通过绑定的CPU对接收到的流量数据进行解封处理,进一步通过Nginx的负载均衡功能采用轻量级IP协议栈将数据进行封装转发,而不是采用Linux内核的网络协议栈进行处理,提高了负载均衡的处理能力,进一步采用绑定的CPU进行处理,避免了锁处理降低数据处理的等待时间,提高了负载均衡的性能。
本申请还提供一种负载均衡装置、服务器以及计算机可读存储介质,具有以上有益效果,在此不做赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例所提供的一种负载均衡方法的流程图;
图2为本申请实施例所提供一种负载均衡装置的结构示意图;
图3为本申请实施例所提供的负载均衡方法的结构示意图。
具体实施方式
本申请的核心是提供一种负载均衡方法、负载均衡装置、服务器以及计算机可读存储介质,通过绑定的CPU对接收到的流量数据进行解封处理,进一步通过Nginx的负载均衡功能采用轻量级IP协议栈将数据进行封装转发,而不是采用Linux内核的网络协议栈进行处理,提高了负载均衡的处理能力,进一步提高了负载均衡的性能。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
相关技术中,一般软负载均衡方案是基于Linux内核的网络协议栈,但是随着网卡速率的不断提升,Linux内核的处理能力降低了网络交换的效率,进一步的降低了实现的软负载均衡的效率,降低了负载均衡性能。
因此,本申请提供一种负载均衡方法,通过绑定的CPU对接收到的流量数据进行解封处理,进一步通过Nginx的负载均衡功能采用轻量级IP协议栈将数据进行封装转发,而不是采用Linux内核的网络协议栈进行处理,提高了负载均衡的处理能力,进一步采用绑定的CPU进行处理,避免了锁处理降低数据处理的等待时间,提高了负载均衡的性能。
以下通过一个实施例,对本申请提供的一种负载均衡方法进行说明。
请参考图1,图1为本申请实施例所提供的一种负载均衡方法的流程图。
本实施例中,可以采用内核旁路技术,诸如DPDK(Data Plane Development Kit),数据平面开发套件)、NETMAP(输入输出框架)。内核旁路的作用主要是通过Linux处理控制流,所有的数据流都在用户空间处理,因此内核旁路可以有效避免内核包拷贝、性能调度、系统调用以及中断引起的性能瓶颈。并且,内核旁路技术通过多种优化手段可以获得更高的性能。
因此,本实施例中的将控制面与数据面分离,控制面走传统的内核协议栈,数据面走轻量级IP协议栈。采用经典的Master(管理者)/Worker(工作者)模型。Master处理控制平面,比如参数配置、统计获取等;Worker实现核心负载均衡、调度、数据转发功能。另外,使用多线程模型,每个线程绑定到一个CPU(Central Processing Unit,中央处理器)物理核心上,并且禁止这些CPU被调度。这些CPU只运行Master或者某个Worker,以此避免上下文切换,别的进程不会被调度到这些CPU,Worker也不会迁移到其他CPU造成缓存失效,提高设备进行负载均衡的并行处理能力。
该方法可以包括:
S101,负载均衡服务器控制多个网卡队列接收通过ECMP协议分发的流量数据;
可见,本步骤旨在每个网卡队列接收到分发的数据流量。其中,本实施例中的负载均衡服务器包括了多个网卡,对该多个网卡分配多个网卡队列。其中,可以是多个网卡对应一个网卡队列,也可以是一个网卡对应多个网卡队列,在此不做具体限定。进一步的,可以是根据DPDK库确定每个网卡队列绑定的CPU;每个网卡队列将流量数据发送至对应的CPU中,控制所述CPU对接收到的流量数据进行解封处理,得到待转发数据。
其中,ECMP(Equal Cost Multi-path,等价路由)协议是指等价多路径协议。即存在多条到达同一个目的地址的相同开销的路径。当设备支持等价路由时,发往该目的IP(Internet Protocol,网际互连协议)或者目的网段的三层转发流量就可以通过不同的路径分担,实现网络的负载均衡,并在其中某些路径出现故障时,由其它路径代替完成转发处理,实现路由冗余备份功能。
进一步的,本实施例为了提高数据分发的可靠性,还可以包括:
交换机根据ECMP协议将接收到的原始流量数据分流发送至多个网卡队列。
可见,本可选方案中说明本实施例中的流量数据如何被分发。具体的,本实施例中通过交换机根据ECMP协议将接收到的原始流量数据分流发送至多个网卡队列。其中,交换机可以是实体交换机,也可以是虚拟交换机。
S102,采用与每个网卡队列绑定的CPU对流量数据进行解封处理,得到待转发数据;
在S101的基础上,本步骤旨在采用与每个网卡队列绑定的CPU对流量数据进行解封处理,得到待转发数据。进一步的,本步骤可以包括:通过配置的所述Nginx的负载均衡功能对所述待换发数据确定对应的转发地址;采用所述轻量级IP协议栈将所述待转发数据进行封装,并根据对应的转发地址进行发送。
其中,对每个网卡队列绑定有对应的CPU,该CPU仅仅处理对应的网卡队列的数据。因此,可以避免各个网卡队列之间的数据处理相互影响。在具体的实施例过程中,可以避免对数据进行加锁处理。由于没有加锁处理,因此在数据处理中避免了数据锁导致的等待问题,降低了数据进行处理的时长,提高了处理速度。
进一步的,为了提高数据的处理能力,使本实施例中的网卡支持多个队列,队列可以和CPU绑定,使不同的CPU处理对应的网卡队列的流量,分摊工作量,实现并行处理和线性扩展。由各个Worker使用DPDK的API处理不同的网卡队列,每个Worker处理某网卡的一个接收队列,一个发送队列,实现了处理能力随CPU核心、网卡队列数的增加而线性增长,增加了处理数据的能力。
S103,通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将待转发数据进行封装转发。
在S102的基础上,本步骤旨在通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将待转发数据进行封装转发。也就是,先通过配置的Nginx的负载均衡功能进行负载均衡分配处理,然后根据轻量级IP协议栈将负载均衡分配好的数据进行封装转发。
其中,Nginx是一个高性能的HTTP和反向代理web服务。Nginx作为负载均衡服务:Nginx既可以在内部直接支持Rails和PHP程序对外进行服务,也可以支持作为HTTP(HyperText Transfer Protocol,超文本传输协议)代理服务对外进行服务。
进一步的,为了提高本实施例中使用协议栈的性能,本实施例还可以包括:
将移植的FreeBSD用户空间协议栈进行配置,得到轻量级IP协议栈。
可见,本可选方案主要是说明如何获取到轻量级IP协议栈。其中,可以是通过将FreeBSD用户空间协议栈进行移植获取到该轻量级IP协议栈。
进一步的,本实施例还可以包括:
负载均衡服务器的控制平面CPU通过无锁队列与多个网卡队列对应的CPU进行通信。
可见,本可选方案中的控制平面CPU与网卡队列对应的CPU之间通过无锁队列进行通行。也就是说,本实施例中的控制面的CPU与数据面的CPU直接通过无锁队列进行通行,避免出现CPU之间的等待情况,提高数据交换的效率。
综上,本实施例通过绑定的CPU对接收到的流量数据进行解封处理,进一步通过Nginx的负载均衡功能采用轻量级IP协议栈将数据进行封装转发,而不是采用Linux内核的网络协议栈进行处理,提高了负载均衡的处理能力,进一步采用绑定的CPU进行处理,避免了锁处理降低数据处理的等待时间,提高了负载均衡的性能。
以下通过一个具体的实施例,对本申请提供的一种负载均衡方法做进一步说明。
本实施例的网络结构,首先通过交换机堆叠组网,服务器和交换机间的BGP(Border Gateway Protocol,邻居发现协议),以及交换机本身的ECMP协议,实现了多活以及动态扩容、缩容的功能。
以4台SLB(Server Load Balancer,负载均衡服务器)集群为例,同一集群内的SLB宣告相同的VIP(Virtual IP Address,虚拟IP地址),在交换机侧形成ECMP等价路由,交换机根据五元组进行分流。当一台服务器(SLB1)故障时,ECMP等价路由会减少,ECMP重新Hash,原先没有故障服务器(SLB2)上的会话也会重新调度到另外的机器上处理,会造成不必要的抖动。为了保证故障机器的流量被均分到剩余三台SLB上,正常服务器上原先的流量保持不变,交换机需要支持一致性Hash。ECMP等价路由会将流量均等的分配到4台SLB服务器,而交换机的一直性Hash则避免了当服务器出现故障时流量不必要的抖动。提高了集群系统的可靠性。
其中,高性能软负载均衡实现原理,基于DPDK和Nginx实现,采用诸多的加速技术,转发效率高于内核态转发,匹配用户习惯,减少学习成本。
请参考图3,图3为本申请实施例所提供的负载均衡方法的结构示意图。
具体的,控制面与数据面分离,控制面走传统的内核协议栈,数据面走轻量级IP协议栈。采用经典的Master/Worker模型。Master处理控制平面,比如参数配置、统计获取等;Worker实现核心负载均衡、调度、数据转发功能。另外,使用多线程模型,每个线程绑定到一个CPU物理核心上,并且禁止这些CPU被调度。这些CPU只运行Master或者某个Worker,以此避免上下文切换,别的进程不会被调度到这些CPU,Worker也不会迁移到其他CPU造成缓存失效。同时针对与交换机间的BGP报文处理,使用DPDK的RTE_FLOW(DPDK中的功能)技术对报文精确匹配,利用五元组精确匹配BGP报文,BGP报文的处理会先于数据流量的处理,保证了服务器与交换机间的BGP邻居不断开。
进一步的,内核性能问题的一大原因就是资源共享和锁。因此,被频繁访问的关键数据需要尽可能的实现无锁化,其中一个方法是将数据做到per-cpu(每个CPU)化,每个CPU只处理自己本地的数据,不需要访问其他CPU的数据,这样就可以避免加锁。针对软负载均衡来说,其中的连接表、邻居表、路由表等都是频繁修改或者频繁查找的数据,都做到了per-cpu化。每个CPU维护不同的连接表,同一个数据流的包,只会出现在某个CPU上,不会落到其他的CPU上。这样就可以做到不同的CPU只维护自己本地的表,无需加锁。
相关技术中的网卡支持多个队列,队列可以和CPU绑定,让不同的CPU处理不同的网卡队列的流量,分摊工作量,实现并行处理和线性扩展。由各个Worker使用DPDK的API处理不同的网卡队列,每个Worker处理某网卡的一个接收队列,一个发送队列,实现了处理能力随CPU核心、网卡队列数的增加而线性增长。
进一步的,四层负载均衡并不需要完整的协议栈,但还是需要基本的网络组件。因此,本实施例中采用DPDK完成和周围设备的交互、确定分组走向、回应Ping请求、健全性检查、以及IP地址管理等基本工作。使用DPDK提高了收发包性能,但也绕过了内核协议栈,依赖的协议栈需要自己实现,通过移植FreeBSD用户空间的协议栈,实现了软负载均衡自己的轻量级协议栈。
控制平面的Master与数据平面的Woker实现了跨CPU无锁消息,通信中不会存在互相影响、相互等待的情况,因为那会影响性能。为此,使用了DPDK提供的无锁rte_ring库,从底层保证通信是无锁的,并且在此之上封装一层消息机制来支持一对一,一对多,同步或异步的消息。加快了跨CPU的通信的速率。
可见,本实施例通过绑定的CPU对接收到的流量数据进行解封处理,进一步通过Nginx的负载均衡功能采用轻量级IP协议栈将数据进行封装转发,而不是采用Linux内核的网络协议栈进行处理,提高了负载均衡的处理能力,进一步采用绑定的CPU进行处理,避免了锁处理降低数据处理的等待时间,提高了负载均衡的性能。
下面对本申请实施例提供的负载均衡装置进行介绍,下文描述的负载均衡装置与上文描述的负载均衡方法可相互对应参照。
请参考图2,图2为本申请实施例所提供一种负载均衡装置的结构示意图。
本实施例中,该装置可以包括:
流量数据接收模块100,用于控制多个网卡队列接收通过ECMP协议分发的流量数据;
解封处理模块200,用于采用与每个网卡队列绑定的CPU对流量数据进行解封处理,得到待转发数据;
封装转发模块300,用于通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将待转发数据进行封装转发。
可选的,该解封处理模块200,可以包括:
CPU绑定单元,用于根据DPDK库确定每个网卡队列绑定的CPU;
数据解封单元,用于每个网卡队列将流量数据发送至对应的CPU中,控制所述CPU对接收到的流量数据进行解封处理,得到待转发数据。
可选的,该封装转发模块300,可以包括:
转发处理单元,用于通过配置的所述Nginx的负载均衡功能对所述待换发数据确定对应的转发地址;
封装单元,用于采用所述轻量级IP协议栈将所述待转发数据进行封装,并根据对应的转发地址进行发送。
可选的,该装置还可以包括;
协议栈获取模块,用于将移植的FreeBSD用户空间协议栈进行配置,得到轻量级IP协议栈。
可选的,该装置还可以包括;
交换机,用于根据ECMP协议将接收到的原始流量数据分流发送至多个网卡队列。
可选的,该装置还可以包括;
控制平面CPU,用于通过无锁队列与多个网卡队列对应的CPU进行通信。
本申请实施例还提供一种服务器,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如以上实施例所述的负载均衡方法的步骤。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如以上实施例所述的负载均衡方法的步骤。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的一种负载均衡方法、负载均衡装置、服务器以及计算机可读存储介质进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。

Claims (10)

1.一种负载均衡方法,其特征在于,包括:
负载均衡服务器控制多个网卡队列接收通过ECMP协议分发的流量数据;
采用与每个网卡队列绑定的CPU对所述流量数据进行解封处理,得到待转发数据;
通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将所述待转发数据进行封装转发。
2.根据权利要求1所述的负载均衡方法,其特征在于,采用与每个网卡队列绑定的CPU对所述流量数据进行解封处理,得到待转发数据,包括:
根据DPDK库确定每个网卡队列绑定的CPU;
每个网卡队列将流量数据发送至对应的CPU中,控制所述CPU对接收到的流量数据进行解封处理,得到待转发数据。
3.根据权利要求1所述的负载均衡方法,其特征在于,通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将所述待转发数据进行封装转发,包括:
通过配置的所述Nginx的负载均衡功能对所述待换发数据确定对应的转发地址;
采用所述轻量级IP协议栈将所述待转发数据进行封装,并根据对应的转发地址进行发送。
4.根据权利要求1所述的负载均衡方法,其特征在于,在所述将所述待转发数据进行封装转发的步骤之前,还包括:
将移植的FreeBSD用户空间协议栈进行配置,得到所述轻量级IP协议栈。
5.根据权利要求1所述的负载均衡方法,其特征在于,还包括:
交换机根据所述ECMP协议将接收到的原始流量数据分流发送至所述多个网卡队列。
6.根据权利要求1所述的负载均衡方法,其特征在于,还包括:
所述负载均衡服务器的控制平面CPU通过无锁队列与所述多个网卡队列对应的CPU进行通信。
7.一种负载均衡装置,其特征在于,包括:
流量数据接收模块,用于控制多个网卡队列接收通过ECMP协议分发的流量数据;
解封处理模块,用于采用与每个网卡队列绑定的CPU对所述流量数据进行解封处理,得到待转发数据;
封装转发模块,用于通过配置的Nginx的负载均衡功能采用轻量级IP协议栈将所述待转发数据进行封装转发。
8.根据权利要求5所述的负载均衡装置,其特征在于,还包括:
协议栈获取模块,用于将移植的FreeBSD用户空间协议栈进行配置,得到所述轻量级IP协议栈。
9.一种服务器,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至6任一项所述的负载均衡方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的负载均衡方法的步骤。
CN202011539326.3A 2020-12-23 2020-12-23 一种负载均衡方法及相关装置 Pending CN112737966A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011539326.3A CN112737966A (zh) 2020-12-23 2020-12-23 一种负载均衡方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011539326.3A CN112737966A (zh) 2020-12-23 2020-12-23 一种负载均衡方法及相关装置

Publications (1)

Publication Number Publication Date
CN112737966A true CN112737966A (zh) 2021-04-30

Family

ID=75604527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011539326.3A Pending CN112737966A (zh) 2020-12-23 2020-12-23 一种负载均衡方法及相关装置

Country Status (1)

Country Link
CN (1) CN112737966A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115038138A (zh) * 2022-06-08 2022-09-09 大连市共进科技有限公司 数据转发方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107135278A (zh) * 2017-07-06 2017-09-05 深圳市视维科技股份有限公司 一种高效的负载均衡器及负载均衡系统
CN110768994A (zh) * 2019-10-30 2020-02-07 中电福富信息科技有限公司 一种基于dpdk技术的提高sip网关性能的方法
US20200136943A1 (en) * 2019-12-27 2020-04-30 Intel Corporation Storage management in a data management platform for cloud-native workloads
CN111371779A (zh) * 2020-02-29 2020-07-03 苏州浪潮智能科技有限公司 一种基于dpdk虚拟化管理系统的防火墙及其实现方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107135278A (zh) * 2017-07-06 2017-09-05 深圳市视维科技股份有限公司 一种高效的负载均衡器及负载均衡系统
CN110768994A (zh) * 2019-10-30 2020-02-07 中电福富信息科技有限公司 一种基于dpdk技术的提高sip网关性能的方法
US20200136943A1 (en) * 2019-12-27 2020-04-30 Intel Corporation Storage management in a data management platform for cloud-native workloads
CN111371779A (zh) * 2020-02-29 2020-07-03 苏州浪潮智能科技有限公司 一种基于dpdk虚拟化管理系统的防火墙及其实现方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
曾理等: "DPDK技术应用研究综述", 《网络新媒体技术》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115038138A (zh) * 2022-06-08 2022-09-09 大连市共进科技有限公司 数据转发方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
US10917351B2 (en) Reliable load-balancer using segment routing and real-time application monitoring
JP7281531B2 (ja) SRv6とBGPを使用するマルチクラウド接続
US11843657B2 (en) Distributed load balancer
US10630710B2 (en) Systems and methods of stateless processing in a fault-tolerant microservice environment
EP2901308B1 (en) Load distribution in data networks
US7274706B1 (en) Methods and systems for processing network data
US9432245B1 (en) Distributed load balancer node architecture
AU2004202403B2 (en) Network load balancing with connection manipulation
US7567504B2 (en) Network load balancing with traffic routing
US7590736B2 (en) Flexible network load balancing
US9172756B2 (en) Optimizing application performance in a network environment
CN110768994B (zh) 一种基于dpdk技术的提高sip网关性能的方法
Desmouceaux et al. 6lb: Scalable and application-aware load balancing with segment routing
Tian et al. Accelerating distributed deep learning using multi-path RDMA in data center networks
CN112737966A (zh) 一种负载均衡方法及相关装置
US11811685B1 (en) Selective packet processing including a run-to-completion packet processing data plane
Perino et al. A programmable data plane for heterogeneous NFV platforms
Ivanisenko Methods and Algorithms of load balancing
Takahashi et al. A portable load balancer with ECMP redundancy for container clusters
US10193782B1 (en) Layer 4 switching for persistent connections
Tian et al. A novel software-based multi-path rdma solutionfor data center networks
CN113992683B (zh) 实现同一集群中双网络有效隔离的方法、系统、设备及介质
Melnyk Modeling of the messages search mechanism in the messaging process on the basis of TCP protocols
Mohamed et al. Configurable communication middleware for clusters with multiple interconnections
CN114039894A (zh) 一种基于矢量包的网络性能优化方法、系统、设备、介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210430

RJ01 Rejection of invention patent application after publication