CN113518130B - 一种基于多核处理器的分组突发负载均衡方法及系统 - Google Patents
一种基于多核处理器的分组突发负载均衡方法及系统 Download PDFInfo
- Publication number
- CN113518130B CN113518130B CN202110954383.6A CN202110954383A CN113518130B CN 113518130 B CN113518130 B CN 113518130B CN 202110954383 A CN202110954383 A CN 202110954383A CN 113518130 B CN113518130 B CN 113518130B
- Authority
- CN
- China
- Prior art keywords
- data packet
- buffer
- module
- thread
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/12—Avoiding congestion; Recovering from congestion
- H04L47/125—Avoiding congestion; Recovering from congestion by balancing the load, e.g. traffic engineering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及一种基于多核处理器的分组突发负载均衡方法及系统,其方法包括:步骤S1:建立多阶段流水线网络流量处理模型;步骤S2:在多阶段流水线网络流量处理模型上,设置拥塞检测模块计算拥塞检测结果,根据拥塞检测结果对存在拥塞的数据包处理线程进行标记;步骤S3:生成线程流量环境信息,并发送给网络流映射调节模块;步骤S4:设置网络流映射调节模块,接收流量环境信息,并针对该信息和当前时刻流量处理性能信息生成额外网络流映射规则,并应用至子缓冲区映射策略中。本发明提供的方法实现了对网络流量拥塞的快速检测,实现网络流在线程间的动态调度,以及调度过程中的数据包保序,避免上层应用对数据包进行重排序,降低上层应用的实现难度。
Description
技术领域
本发明涉及负载均衡领域,具体涉及一种基于多核处理器的分组突发负载均衡方法及系统。
背景技术
在10Gbps以上的高速网络下,网络流量监控处理设备常常需要在一秒内处理数以百万计的网络数据包,并且在同一设备中执行多种数据包处理流程,例如深度包检测和活跃网络流统计等。通过设置不同的应用类型,此类设备即可用于数据中心等生产环境,也可用于校园和产业园区等场所,对通过部分节点的网络流量进行分析。
现有的部分工作采用生产者消费者模型,其中生产者与网卡对接,将网卡接收到的网络数据包按照预定规则分类,对应不同的上层处理流程,并放入与该类别相对应的缓冲区内;在任意类别下,对应有一组消费者从对应缓冲区中取出网络数据包,执行分析和处理任务。为了降低硬件成本,加速网络数据包的处理,现有的部分工作选择通用硬件,通过绕过操作系统内核协议栈等方法避免不必要的上下文切换和内存复制。其所使用的通用硬件常采用多核架构,其中的消费者和生产者均为线程,利用并行执行计算任务加速处理过程,从而进一步提高网络流量处理设备的性能。与此同时,为了保持每条网络流的状态,提高缓存利用率,避免计算结果错误,同时减少锁的使用,属于同一条网络流的数据包在某一时刻只能由一个消费者线程进行处理,因此生产者线程需要以网络流为粒度分发数据包。
在该场景下,生产者线程缓存数据包的速度与网络状况相关,包括网络速率变化以及流量成分等。而与此同时,现有工作中任意一缓冲区下的消费者线程数量和处理流程是固定的,其整体处理速度不会随着网络环境产生变化。因此存在一定时刻,部分消费者线程单位时间内的计算负载大幅上升,超过了其处理上限,持续消耗缓冲区容量,进而影响网络流量的处理效果,包括增加处理延迟等,严重甚至会引起丢包,此处称其为产生了拥塞。
针对上述问题,需要对处理过程中的拥塞进行快速检测和定位,并调整数据包分发规则,将计算任务转移至负担较轻的消费者线程进行处理,以充分利用缓冲区和多核处理器,规避拥塞带来的性能下降,并且调整的同时保持网络流状态。
由于基于通用硬件的流量处理常使用轮询方式替换传统的系统中断,处理器的使用率一直处于100%,无法直接体现处理器的使用效率,因此需要寻找合适的方法对处理器的处理负载进行量化,并进一步对该消费者处理的流量进行分析,确定需要重新映射的网络流。为了保证处理流程的正确性,需要在调整数据包分发规则时对数据包进行保序,避免数据包乱序。
发明内容
为了解决上述技术问题,本发明提供一种基于多核处理器的分组突发负载均衡方法及系统。
本发明技术解决方案为:一种基于多核处理器的分组突发负载均衡方法,包括:
步骤S1:建立多阶段流水线网络流量处理模型,包括:数据包接收分类模块、数据包缓冲模块和数据包处理模块;
其中,所述数据包接收分类模块包含多个线程以及多个数据包分类规则;
所述数据包缓冲模块包含多个缓冲区域,每个所述缓冲区域包含多个子缓冲区,其中所述缓冲区域个数与所述分类规则个数相同;
所述数据包处理模块包含多个上层处理应用,每个所述上层处理应用对应一组数据包处理线程,其中所述数据包处理线程与所述子缓冲区一一对应;
步骤S2:在所述多阶段流水线网络流量处理模型上,设置拥塞检测模块,对各个所述数据包处理线程及其对应子缓冲区的性能进行持续监测;在预定周期内采集各个所述数据包处理线程及其对应子缓冲区的性能信息,用于计算拥塞检测结果,并根据所述拥塞检测结果对存在拥塞的所述数据包处理线程进行标记;
步骤S3:对标记为拥塞的所述数据包处理线程进行网络流量短期测量,对接收到的数据包进行采样分析,生成线程流量环境信息,并发送给网络流映射调节模块;
步骤S4:设置所述网络流映射调节模块,接收流量环境信息,并针对该信息和当前时刻流量处理性能信息生成额外网络流映射规则,并应用至子缓冲区映射策略中。
本发明与现有技术相比,具有以下优点:
1、本发明实现了对网络流量拥塞的快速检测,在微秒级别对其进行响应,能够实现对更小时间范围内流量突发的识别与处理。
2、本发明实现了网络流在线程间的动态调度,提高了对多线程模型计算能力的利用率,减少了网络流量突发对处理性能的影响。
3、本发明采用了采样的方式确定引起拥塞的网络流,避免了持续性流量统计所带来的性能消耗。
4、本发明实现了网络流动态调度过程中的数据包保序,避免上层应用对接收到的数据包进行重排序,在保证计算结果正确的前提下降低了上层应用的实现难度。
附图说明
图1为本发明实施例中一种基于多核处理器的分组突发负载均衡方法的流程图;
图2为本发明实施例中一种基于多核处理器的分组突发负载均衡方法中步骤S1:建立多阶段流水线网络流量处理模型的流程图;
图3为本发明实施例中子缓冲区映射策示意图;
图4为本发明实施例中一种基于多核处理器的分组突发负载均衡方法中步骤S2:在多阶段流水线网络流量处理模型上,设置拥塞检测模块,对各个数据包处理线程及其对应子缓冲区的性能进行持续监测;在预定周期内采集各个数据包处理线程及其对应子缓冲区的性能信息,用于计算拥塞检测结果,并根据拥塞检测结果对存在拥塞的数据包处理线程进行标记的流程图;
图5为本发明实施例中一种基于多核处理器的分组突发负载均衡方法中步骤S3:对标记为拥塞的数据包处理线程进行网络流量短期测量,对接收到的数据包进行采样分析,获取线程流量环境信息,并发送给网络流映射调节模块的流程图;
图6为本发明实施例中一种基于多核处理器的分组突发负载均衡方法中步骤S4:设置网络流映射调节模块,接收流量环境信息,并针对该信息和当前时刻流量处理性能信息生成额外网络流映射规则,并应用至子缓冲区映射策略中的流程图;
图7为本发明实施例中基于多核处理器的分组突发负载均衡方法的流程示意图;
图8为采用RSS方法和本发明提供的方法下不同线程中数据包自接收到处理完成的时延比较结果示意图;
图9为本发明实施例中一种基于多核处理器的分组突发负载均衡系统的结构框图。
具体实施方式
本发明提供了一种基于多核处理器的分组突发负载均衡方法,实现了对网络流量拥塞的快速检测,实现网络流在线程间的动态调度,以及调度过程中的数据包保序,避免上层应用对数据包进行重排序,降低上层应用的实现难度。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
本发明实施例使用DPDK(Data Plane Development Kit)作为基础软件方案。DPDK是Intel公司开发的基于数据平面的数据包处理框架,为用户态应用程序提供各类接口,通过旁路操作系统网络协议栈,直接对网卡进行读写,以实现高速网络下数据包的快速接收、处理和发送。DPDK常采用多线程模型,可以通过设置线程亲和等方式,将多核处理器中的不同核心与线程进行绑定,减少线程调度的开销,以提高处理性能。本发明实施例使用的硬件设备至少包括一个处理器,其中该处理器包含多个核心;包含一个网卡,包含一个或多个硬件网卡队列,用于接收网络数据包。在本发明实施例中,使用的终端设备为安装有Linux系统的PC设备,采用Intel Xeon Phi 7210处理器和Intel 82599网卡,其中处理器包括64个核心,支持4路超线程,单核主频为1.3GHz,网卡支持最高10Gbps的网络传输带宽。
实施例一
如图1所示,本发明实施例提供的一种基于多核处理器的分组突发负载均衡方法,包括下述步骤:
步骤S1:建立多阶段流水线网络流量处理模型,包括:数据包接收分类模块、数据包缓冲模块和数据包处理模块;
其中,数据包接收分类模块包含多个线程以及多个数据包分类规则;
数据包缓冲模块包含多个缓冲区域,每个缓冲区域包含多个子缓冲区,其中缓冲区域个数与分类规则个数相同;
数据包处理模块包含多个上层处理应用,每个上层处理应用对应一组数据包处理线程,其中数据包处理线程与子缓冲区一一对应;
步骤S2:在多阶段流水线网络流量处理模型上,设置拥塞检测模块,对各个数据包处理线程及其对应子缓冲区的性能进行持续监测;在预定周期内采集各个数据包处理线程及其对应子缓冲区的性能信息,用于计算拥塞检测结果,并根据拥塞检测结果对存在拥塞的数据包处理线程进行标记;
步骤S3:对标记为拥塞的数据包处理线程进行网络流量短期测量,对接收到的数据包进行采样分析,生成线程流量环境信息,并发送给网络流映射调节模块;
步骤S4:设置网络流映射调节模块,接收流量环境信息,并针对该信息和当前时刻流量处理性能信息生成额外网络流映射规则,并应用至子缓冲区映射策略中。
如图2所示,在一个实施例中,上述步骤S1:建立多阶段流水线网络流量处理模型,包括:数据包接收分类模块、数据包缓冲模块和数据包处理模块;
其中,数据包接收分类模块包含多个线程以及多个数据包分类规则;
数据包缓冲模块包含多个缓冲区域,每个缓冲区域包含多个子缓冲区,其中缓冲区域个数与分类规则个数相同;
数据包处理模块包含多个上层处理应用,每个上层处理应用对应一组数据包处理线程,其中数据包处理线程与子缓冲区一一对应,具体包括:
步骤S11:构造数据包接收分类模块:数据包接收分类模块包含多个并行执行的线程,当开始数据包接收分类模块后,属于该模块的所有线程同时开始执行;数据包接收分类模块包含多个线程{CThread1,CThread2,…,CThreadn,...,CThreadN},其中,CThreadn是该模块中的第n个线程,N表示所述数据包接收分类模块中的线程个数。数据包接收分类模块用于从网卡中接收网络数据包,并按照分类与映射规则将其放入数据包缓冲模块的不同位置;在任意一个时刻,CThreadn采用轮询的方式访问网卡上的硬件队列,如果队列中存在尚未处理的网络数据包,则将其从网卡中取出,存放于线程CThreadn对应的用户态区域。其中,对于任意两个编号不同的线程和/>其对应的硬件网卡队列不同;对于网卡接收的任意一个数据包,一定会由该模块中的一个线程取出并进行处理。
在本发明实施例中,N设置为8,即数据包接收分类模块中包含8个线程,分别对应Intel 82599网卡上的8个硬件队列。
数据包接收分类模块还包含多个数据包分类规则{Rule1,Rule2,…,Rulem,...,RuleM};Rulem是数据包接收分类模块设定的第m条数据包分类规则;M为数据包接收分类模块中预设的数据包分类规则的条数。对于任意一个线程CThreadn取出的数据包,线程将其与设定的数据包分类规则{Rule1,Rule2,…,Rulem,...,RuleM}依次进行比对,对于任意两个标号不同的数据包分类规则和/>若存在m1<m2,则m1对应的规则优先级高与m2对应的规则优先级。对于任意一个网络数据包,如果存在多条与之匹配的分类规则,则选择优先级最高的作为匹配结果。在上述分类规则中,RuleM为默认规则,其优先级最低,可以与任意数据包完成匹配。对于匹配到的最高优先级分类规则Rulem,将其标识号m与数据包传递至数据包缓冲模块。
对于任意一个分类规则Rulem包含分类标识信息分别表示匹配该分类规则的网络数据包对应的起始源IP网络地址,终止源IP网络地址,起始目的IP网络地址,终止目的IP网络地址,起始源端口号,终止源端口号,起始目的端口号和终止目的端口号。对于线程CThreadn处理的任意一个数据包/>从中提取标识信息分别代表该数据包对应的源IP网络地址,目的IP网络地址,源端口号,目的端口号和协议号,如果不包含对应信息,则设对应项为空。进行规则匹配时,将数据包标识依次与分类标识进行比较,以源IP网络地址为例,如果/>大于/>且小于/>则认为源IP网络地址符合该分类规则。如果源IP网络地址,目的IP网络地址,源端口号,目的端口号和协议号均符合上述要求,则认为数据包/>与该分类规则Rulem匹配,此处标记该数据包为/>分类规则预先设置,在模块运行过程中不变。
步骤S12:构造数据包缓冲模块:数据包缓冲模块包含多个缓冲区域{Area1,Area2,…,Aream,...,AreaM},Aream是该模块中的第m个缓冲区域,M为数据包缓冲模块中预设的缓冲区域个数,与数据包分类规则的条数相同,并且一一对应;每个缓冲区域包含多个子缓冲区D为第m个缓冲区域中的子缓冲区个数;根据子缓冲区映射策略,将数据包存入对应的子缓冲区。
该模块中的任意两个缓冲区域和/>若m1≠m2,则其包含的子缓冲区交集为空,且所有缓冲区域中包含的子缓冲区并集为全集,即任意一个子缓冲区/>必定唯一存在于一个缓冲区域Aream中。对于数据包接收分类模块中的任意一条分类规则Rulem,一定唯一存在一个缓冲区域Aream与之对应。对于传递至该模块的数据包及其分类规则标号m,数据包缓冲模块将其放入缓冲区域Aream中。对于进入到缓冲区域Aream中的任意一个数据包/>子缓冲区策略依据该数据包包含的数据信息,返回子缓冲区编号d,该模块依据该编号将其放入对应的子缓冲区/>中。对于子缓冲区映射策略,在任意一个时刻,接收属于同一个网络流的数据包作为输入,会返回相同的子缓冲区标识号。
在本发明实施例中,子缓冲区由固定长度的环形缓冲队列实现,为首尾相连的先入先出的数据结构,包含有一个读指针和一个写指针,其中读指针指向环形缓冲区中可读的数据位置,写指针指向环形缓冲区中可写的数据位置,此处称其访问者分别为写用户和读用户。在进行读取和写入时,会依据数据访问情况移动上述两个指针。本发明实施例中的环形缓冲队通过加锁保护,确保支持多个写用户和一个读用户。对于任意一个数据包将其在内存中的访问地址依据读指针写入环形缓冲队列,如果队列已满,则停止写入,并将该数据包对应的内存释放。在本发明实施例中,子缓冲区长度固定,最多能够存储4096个数据包的指针数据。
在本发明实施例中,如图3所示,子缓冲区映射策略由额外映射策略和基础映射策略两个部分组成。对于子缓冲区映射策略接收的任意一个网络数据包提取其标识信息/>首先使用额外映射策略,额外映射策略由哈希表实现,并采取读写锁同步其查询和修改。哈希表中包含多个哈希表项,存储键值对{Keyh,Valueh},其中Keyh是数据包标识信息,Valueh是目标子缓冲区标识号。因此,可以通过计算哈希值/>和对比表项判断是否存在与该数据包对应的额外映射规则。哈希值的计算算法为toeplitz。如果查询失败,则将哈希值/>作为基础映射策略的输入。具体地,基础映射策略计算目标子缓冲区标识号dtarget的计算公式为:其中,mod为取模运算。
步骤S13:构造数据包处理模块:数据包处理模块包含M个上层处理应用,每个上层处理应用对应一组数据包处理线程其中,为数据包处理模块中第m个上层处理应用中的第d个线程;第m个上层处理应用中的线程与缓冲区域Aream中的子缓冲区一一对应,处理线程从子缓冲区取出数据包,并执行分析处理。
在本发明实施例中,处理线程采用轮询方式,持续循环访问子缓冲区的读指针。具体地,在本发明实施例中,每次访问子缓冲区/>如果存储的数据包指针数量大于32个,则在本次访问中依次取出读指针指向的前32个数据包指针;如果数量小于32个,则依次将其全部取出。处理线程/>依据读取到的数据包指针访问其内容并进行处理,处理结束或者访问子缓冲区/>为空时,立即再次访问。在本发明实施例中,处理线程/>的处理器使用率持续为100%。
在本发明实施例中,上层处理应用包括深度包检测和heavy-hitter流检测。其中,深度包检测由nDPI库实现,该开源库是由openDPI发展而来,基于C语言编写,支持多种协议识别;heavy-hitter流检测则使用Lossy-Counting算法对各条网络流中的数据包数量进行统计。
如图4所示,在一个实施例中,上述步骤S2:在多阶段流水线网络流量处理模型上,设置拥塞检测模块,对各个数据包处理线程及其对应子缓冲区的性能进行持续监测;在预定周期内采集各个数据包处理线程及其对应子缓冲区的性能信息,用于计算拥塞检测结果,并根据拥塞检测结果对存在拥塞的数据包处理线程进行标记,具体包括:
在本发明实施例中执行周期性的性能数据采集,任意两次采集之间间隔时间为Duration,将Duration设置为5微秒。在间隔时间内,拥塞检测模块阻塞执行,间隔时间结束后,对各项数据进行采集和记录。
步骤S22:设置阻塞检测算法如下述公式(2),将轮询效率和数据包处理线程数作为输入,返回拥塞检测结果;
其中,Thres_count是子缓冲区空间占用数阈值,Thres_effiency是轮询效率阈值,
对于步骤S21中采集到的不同组别的性能数据,分别利用上述公式,并将所有输出为True值的对应线程标识号m和d进行记录。
步骤S23:根据步骤S22记录所有处理线程标识号,设置对应的拥塞标记。
依据步骤S22中记录的所有处理线程标识号,对处理线程分别进行标记。在本发明实施例中,步骤S13中设置的数据包处理模块中,每个线程对应拥有一个独占的拥塞标记,该拥塞标记存在三种状态,分别为正常,拥塞和等待。该模块依据记录的所有标识号依次确定对应的处理线程,设置对应的标记为拥塞。
在本发明实施例中,拥塞标记已经设置为拥塞或等待的处理线程在步骤S2中对其则不再执行性能信息采集、拥塞检测和处理线程标记。
如图5所示,在一个实施例中,上述步骤S3:对标记为拥塞的数据包处理线程进行网络流量短期测量,对接收到的数据包进行采样分析,获取线程流量环境信息,并发送给网络流映射调节模块,具体包括:
步骤S31:数据包处理线程执行指定的数据包处理流程,同时对相应的拥塞标记进行持续检测,如有拥塞,则开启采样阶段,对期间内该线程接收的网络流标识及其产生的计算负载进行记录;
在本发明实施例中,采样窗口规定为处理2048个网络数据包,对于任意一个数据包提取其标识信息/>并使用该信息唯一确定从属的网络流,即拥有相同标识信息的数据包属于同一条网络流。采样开始时,设置一个空的哈希表,哈希表中包含多个哈希表项,存储键值对{Keyh,Valueh},其中Keyh是数据包标识信息,Valueh是采样窗口中标识信息与该键值相同的数据包数量,用于描述对应网络流的造成的负载。
步骤S32:采样阶段结束后,按照计算负载从多到少对记录的网络流标识进行排序,将网络流标识和计算负载作为拥塞状态下的流量环境信息;
采样阶段结束后,对记录的网络流按照计算负载从大到小进行排序,作为采样窗口内线程接收的流量环境信息。在本发明实施例中,使用快速排序算法对键值对{Keyh,Valueh}进行排序,最终获得排序处理结果{Key1,Value1,Key2,Value2,...,Keyh,Valueh,...,KeyH,ValueH},使得对于任意两个数据包数量信息/>和/>若h 1<h2,则/>
步骤S33:将流量环境信息发送至网络流映射调节模块,并等待该模块的响应信息;在等待响应期间,对应线程继续执行数据包处理流程,设置拥塞标记为等待状态,并阻止拥塞检测模块对其进行设置;
将步骤S32中记录的流量环境信息传递至网络流映射调节模块,并且在相应调度决策生成前设置该线程为等待状态。在本发明实施例中,网络流映射调节模块功能为指定流映射调节决策,与数据包处理线程通过队列传递信息,队列中保存指向内存中流量环境信息的指针。执行流量环境信息传递流程前,设置拥塞标记为等待;如果由于队列已满等导致信息传递失败,代表一定无后续响应,设置拥塞标记为正常。
步骤S34:接收到网络流映射调节模块的响应信息后,数据包处理线程清除拥塞标记,并重复执行步骤S31~S33。
在信息传递成功后,数据包处理线程继续执行原有数据包处理流程,并同时等待响应信息,并且在接收到响应信息后结束等待状态,之后重复执行步骤S31~S33。在本发明实施例中,线程/>接收到响应信息后,清除拥塞标记并将其标记为正常。
如图6所示,在一个实施例中,上述步骤S4:设置网络流映射调节模块,接收流量环境信息,并针对该信息和当前时刻流量处理性能信息生成额外网络流映射规则,并应用至子缓冲区映射策略中,具体包括:
步骤S41:根据流量环境信息以及处理线程性能数据,构建流映射调节决策{Noold,Nonew,Id},其中,Noold为原线程标识{m,d},Nonew为新的线程标识{m,d'},Id为需要额外调度的数据包标识信息{Sip,Dip,Sport,Dport,Prot};
本模块将步骤S33中的流量环境信息设置信息传递队列,队列中保存指向内存中流量环境信息的指针,并在模块运行开始后对该队列进行循环访问。如果队列为空,则不执行任何处理并再次访问;如果队列不为空,则取出其中第一条流量环境信息{No,Info1,Info2,...,Infoi,...,InfoI},其中No为发送该信息的原处理线程的标识号,其详细标识{m,d},Infoi为采集中获得的任意一条网络流信息,其包含数据{Idi,Packetsi,Packets_totali}。在上述网络流信息中,Idi为需要额外调度的数据包标识信息{Sipi,Dipi,Sporti,Dporti,Proti},其定义与步骤S31中相同;Packetsi为采样窗口内该网络流的数据包数量;Packets_totali为采样窗口内采样的所有数据包数量。
接收信息后,由计算负载从多到少对信息中包含的网络流进行遍历,并为其挑选新的处理线程。在本发明实施例中,生成流映射调节决策时,以Packetsi从大到小,对所有Infoi进行排序。
排序完成后,依次对各个网络流进行处理,选择调度后不会引起拥塞的新线程。对任意一个网络流信息Infoi,在本发明实施例中,处理时首先计算网络流在原本线程中的计算负载占比,其计算公式(3)如下所示:
其中,Max_Count是子缓冲区最大空间数。
如果计算结果Will_Congest为True,则代表该网络流调度到新线程后会引起新的阻塞,不符合调度要求;反之如果Will_Congest为False,则代表该网络流调度到新线程/>后不会引起新的阻塞,符合调度要求。在本发明实施例中,如果网络流信息Infoi能够寻找到其他线程中的任意一个/>使Will_Congest为False,则认为找到新的处理线程,并停止遍历,记录新的线程标识{m,d'}和当前选择的网络流信息Infoi,并生成待应用流映射调节决策{Noold,Nonew,Id},其中Noold和Id分别是记录Infoi中包含的No和Id数据,Nonew为记录的新的线程标识{m,d'}。如果对于所有其他线程Will_Congest计算结果均为True,则按照排序后的结果选择下一个网络流信息进行计算。如果对于所有网络流信息,均不能找到新的处理线程,则认为无法调度,跳转至步骤S45。
步骤S42:依据流映射调节决策,对步骤S12中设置的子缓冲区映射策略进行修改,将Id作为键值,重新进行查询获得Nonew;
在本发明实施例中,应用决策{Noold,Nonew,Id}时,修改子缓冲区映射策略中的额外映射策略,具体地说,采取读写锁同步的方式修改步骤S12中哈希表的键值对{Keyh,Valueh}映射,使得以上述应用决策中的Id作为键值,查询获得的值Valueh等于Nonew。
步骤S43:分配临时缓冲区并与数据流进行绑定,在数据流已经进入子缓冲区的数据包全部处理完成前,对符合该映射规则的数据包进行暂时存储;
基于步骤S42中应用的映射规则,分配临时缓冲区并与之绑定,在该网络流已经进入子缓冲区的数据包全部处理完成前,对符合该映射规则的数据包进行暂时存储。
在本实发明施例中,所分配的缓冲区为一段连续的固定长度内存空间,其数据结构表现为队列,经由步骤S42中映射的数据包会将其内存指针存入该队列,而非存入子缓冲区。如果队列已满,则继续申请同等大小的内存空间,继续执行上述操作。
步骤S44:依据步骤S42中的Noold,访问其对应的处理线程,在该线程将剩余的标识信息为Id的数据包处理完成后,释放临时缓冲区,并将其中的数据包依次放入标识信息为Nonew的子缓冲区;
在本发明实施例中,在缓冲区分配完成后,依据标识信息Id访问处理线程和子缓冲区,对访问时子缓冲区中存储的数据包指针数量Count进行记录,并在处理线程中设置一次性触发器。在该线程处理完Count个网络数据包后,触发器引发对应流程,将步骤S43中临时缓冲区中的数据包按照放入的顺序,依次放入映射规则指定的子缓冲区中。同时,对放入的子缓冲区中存访的数据包指针数量进行检测,如果子缓冲区已满,则暂停放入。在临时缓冲区清空后,释放其占用的内存空间。
在本发明实施例中,设置完触发器后,直接跳转至步骤S45。
步骤S45:重复执行步骤S41~S44。
图7展示了本发明提供的一种基于多核处理器的分组突发负载均衡方法的流程示意图。
图8为某校园数据中心流量环境下RSS和本发明提供的方法下不同线程中数据包自接收到处理完成的时延比较的结果,可以看出本发明提供的方法有着更好的负载均衡效果。
本发明提供的方法实现了对网络流量拥塞的快速检测,在微秒级别对其进行响应,能够实现对更小时间范围内流量突发的识别与处理。同时,本发明提供的方法实现了网络流在线程间的动态调度,提高了对多线程模型计算能力的利用率,减少了网络流量突发对处理性能的影响。此外,本发明提供的方法通过采样的方式确定引起拥塞的网络流,避免了持续性流量统计所带来的性能消耗。本发明提供的方法实现了网络流动态调度过程中的数据包保序,避免上层应用对接收到的数据包进行重排序,在保证计算结果正确的前提下降低了上层应用的实现难度。
实施例二
如图9所示,本发明实施例提供了一种基于多核处理器的分组突发负载均衡系统,包括下述模块:
构建多阶段流水线网络流量处理模型模块51,用于建立多阶段流水线网络流量处理模型,包括:数据包接收分类模块、数据包缓冲模块和数据包处理模块;其中,数据包接收分类模块包含多个线程以及多个数据包分类规则;数据包缓冲模块包含多个缓冲区域,每个缓冲区域包含多个子缓冲区,其中缓冲区域个数与分类规则个数相同;数据包处理模块包含多个上层处理应用,每个上层处理应用对应一组数据包处理线程,其中数据包处理线程与子缓冲区一一对应;
拥塞检测模块52,用于在多阶段流水线网络流量处理模型上,设置拥塞检测模块,对各个数据包处理线程及其对应子缓冲区的性能进行持续监测;在预定周期内采集各个数据包处理线程及其对应子缓冲区的性能信息,用于计算拥塞检测结果,并根据拥塞检测结果对存在拥塞的数据包处理线程进行标记;
生成线程流量环境信息模块53,用于对标记为拥塞的数据包处理线程进行网络流量短期测量,对接收到的数据包进行采样分析,生成线程流量环境信息,并发送给网络流映射调节模块;
网络流映射调节模块54,用于设置网络流映射调节模块,接收流量环境信息,并针对该信息和当前时刻流量处理性能信息生成额外网络流映射规则,并应用至子缓冲区映射策略中。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (6)
1.一种基于多核处理器的分组突发负载均衡方法,其特征在于,包括:
步骤S1:建立多阶段流水线网络流量处理模型,包括:数据包接收分类模块、数据包缓冲模块和数据包处理模块;
其中,所述数据包接收分类模块包含多个线程以及多个数据包分类规则;
所述数据包缓冲模块包含多个缓冲区域,每个所述缓冲区域包含多个子缓冲区,其中所述缓冲区域个数与所述分类规则个数相同;
所述数据包处理模块包含多个上层处理应用,每个所述上层处理应用对应一组数据包处理线程,其中所述数据包处理线程与所述子缓冲区一一对应;
步骤S2:在所述多阶段流水线网络流量处理模型上,设置拥塞检测模块,对各个所述数据包处理线程及其对应子缓冲区的性能进行持续监测;在预定周期内采集各个所述数据包处理线程及其对应子缓冲区的性能信息,用于计算拥塞检测结果,并根据所述拥塞检测结果对存在拥塞的所述数据包处理线程进行标记;
步骤S3:对标记为拥塞的所述数据包处理线程进行网络流量短期测量,对接收到的数据包进行采样分析,生成线程流量环境信息,并发送给网络流映射调节模块;
步骤S4:设置所述网络流映射调节模块,接收流量环境信息,并针对该信息和当前时刻流量处理性能信息生成额外网络流映射规则,并应用至子缓冲区映射策略中。
2.根据权利要求1所述的基于多核处理器的分组突发负载均衡方法,其特征在于,所述步骤S1:建立多阶段流水线网络流量处理模型,包括:数据包接收分类模块、数据包缓冲模块和数据包处理模块;
其中,所述数据包接收分类模块包含多个线程以及多个数据包分类规则;
所述数据包缓冲模块包含多个缓冲区域,每个所述缓冲区域包含多个子缓冲区,其中所述缓冲区域个数与所述分类规则个数相同;
所述数据包处理模块包含多个上层处理应用,每个所述上层处理应用对应一组数据包处理线程,其中所述数据包处理线程与所述子缓冲区一一对应,具体包括:
步骤S11:构造所述数据包接收分类模块:所述数据包接收分类模块包含多个线程{CThread1,CThread2,...,CThreadn,...,CThreadN},其中,CThreadn是该模块中的第n个线程,N表示所述数据包接收分类模块中的线程个数;
所述数据包接收分类模块还包含多个数据包分类规则{Rule1,Rule2,...,Rulem,...,RuleM},Rulem是所述数据包接收分类模块设定的第m条数据包分类规则;M为所述数据包接收分类模块中预设的数据包分类规则的条数;规则Rulem包含分类标识信息分别为网络数据包对应的起始源IP网络地址,终止源IP网络地址,起始目的IP网络地址,终止目的IP网络地址,起始源端口号,终止源端口号,起始目的端口号和终止目的端口号,起始传输层协议号和终止传输层协议号;对于线程CThreadn处理的任意一个数据包从中提取标识信息分别代表该数据包对应的源IP网络地址,目的IP网络地址,源端口号,目的端口号和协议号;进行规则匹配时,将数据包标识依次与分类标识进行比较,以源IP网络地址为例,如果大于且小于则认为源IP网络地址符合该分类规则;如果源IP网络地址,目的IP网络地址,源端口号,目的端口号和协议号均符合上述要求,则认为数据包与该分类规则Rulem匹配,此处标记该数据包为
步骤S12:构造所述数据包缓冲模块:所述数据包缓冲模块包含多个缓冲区域{Area1,Area2,...,Aream,...,AreaM},Aream是该模块中的第m个缓冲区域,M为所述数据包缓冲模块中预设的缓冲区域个数,与所述数据包分类规则的条数相同,并且一一对应;每个所述缓冲区域包含多个子缓冲区D为第m个所述缓冲区域中的子缓冲区个数;根据子缓冲区映射策略,将数据包存入对应的所述子缓冲区,其中,所述子缓冲区映射策略由额外映射策略和基础映射策略组成;对于子缓冲区映射策略接收的任意一个网络数据包提取其标识信息首先使用额外映射策略,额外映射策略由哈希表实现,并采取读写锁同步其查询和修改;哈希表中包含多个哈希表项,存储键值对{Keyh,Valueh},其中Keyh是数据包标识信息,Valueh是目标子缓冲区标识号;通过计算哈希值和对比表项判断是否存在与该数据包对应的额外映射规则,其中,哈希值的计算算法为toeplitz;如果查询失败,则将哈希值作为基础映射策略的输入,基础映射策略计算目标子缓冲区标识号dtarget的计算公式为:其中,mod为取模运算;
3.根据权利要求2所述的基于多核处理器的分组突发负载均衡方法,其特征在于,所述步骤S2:在所述多阶段流水线网络流量处理模型上,设置拥塞检测模块,对各个所述数据包处理线程及其对应子缓冲区的性能进行持续监测;依据所述数据包处理线程数,在预定周期内读取各个所述数据包处理线程的轮询效率,并按照其与子缓冲区的对应关系,采集相应子缓冲区的空间占用数,用于计算拥塞检测结果,并根据所述拥塞检测结果对存在拥塞的所述数据包处理线程进行标记,具体包括:
其中,为上个所述周期内所有所述子缓冲区访问中子缓冲区为空的访问次数,为上个所述周期内所有所述子缓冲区访问中子缓冲区不为空的访问次数;直接反映该处理线程在当前负载下的拥塞情况,并间接反映流量是否存在突发;
步骤S22:设置阻塞检测算法如下述公式(2),将所述轮询效率和数据包处理线程数作为输入,返回拥塞检测结果;
其中,Thres_count是子缓冲区空间占用数阈值,Thres_effiency是轮询效率阈值,
步骤S23:根据步骤S22记录所有处理线程标识号,设置对应的拥塞标记。
4.根据权利要求3所述的基于多核处理器的分组突发负载均衡方法,其特征在于,所述步骤S3:对标记为拥塞的所述数据包处理线程进行网络流量短期测量,对接收到的数据包进行采样分析,获取线程流量环境信息,并发送给网络流映射调节模块,具体包括:
步骤S31:所述数据包处理线程执行指定的数据包处理流程,同时对相应的所述拥塞标记进行持续检测,如有拥塞,则开启采样阶段,对期间内该线程接收的网络流标识及其产生的计算负载进行记录,其中所述网络流标识为:分别代表源、目的IP地址,源、目的端口和传输层协议号,所述计算负载为期间内接收拥有该网络流标识的数据包数量;
步骤S32:所述采样阶段结束后,按照所述计算负载从多到少对记录的网络流标识进行排序,将所述网络流标识和所述计算负载作为拥塞状态下的流量环境信息;
步骤S33:将所述流量环境信息发送至所述网络流映射调节模块,并等待该模块的响应信息;在等待响应期间,对应线程继续执行数据包处理流程,设置拥塞标记为等待状态,并阻止所述拥塞检测模块对其进行设置;
步骤S34:接收到所述网络流映射调节模块的响应信息后,所述数据包处理线程清除拥塞标记,并重复执行步骤S31~S33。
5.根据权利要求4所述的基于多核处理器的分组突发负载均衡方法,其特征在于,所述步骤S4:设置所述网络流映射调节模块,接收流量环境信息,并针对该信息和当前时刻流量处理性能信息生成额外网络流映射规则,并应用至子缓冲区映射策略中,具体包括:
步骤S41:根据所述流量环境信息以及处理线程性能数据,构建流映射调节决策{Noold,Nonew,Id},其中,Noold为原线程标识{m,d},Nonew为新的线程标识{m,d'},Id为需要额外调度的数据包标识信息{Sip,Dip,Sport,Dport,Prot},其中,所述数据包标识信息分别代表:源IP地址,目的IP地址,源端口号,目的端口号和传输层协议号;
步骤S42:依据所述流映射调节决策,对步骤S12中设置的所述子缓冲区映射策略进行修改,更新所述子缓冲区映射策略中的额外映射策略,修改键值对映射关系,使用步骤S41中Id作为所述子缓冲区映射策略中键值对{Keyh,Valueh}中的键值Keyh,重新进行查询,获得的Valueh作为Nonew;
步骤S43:分配临时缓冲区并与数据流进行绑定,在所述数据流已经进入子缓冲区的数据包全部处理完成前,对符合该映射规则的数据包进行暂时存储;
步骤S44:依据步骤S42中的Noold,访问其对应的处理线程,在该线程将剩余的标识信息为Id的数据包处理完成后,释放所述临时缓冲区,并将其中的数据包依次放入标识信息为Nonew的子缓冲区;
步骤S45:重复执行步骤S41~S44。
6.一种基于多核处理器的分组突发负载均衡系统,其特征在于,包括下述模块:
构建多阶段流水线网络流量处理模型模块,用于建立多阶段流水线网络流量处理模型,包括:数据包接收分类模块、数据包缓冲模块和数据包处理模块;其中,所述数据包接收分类模块包含多个线程以及多个数据包分类规则;所述数据包缓冲模块包含多个缓冲区域,每个所述缓冲区域包含多个子缓冲区,其中所述缓冲区域个数与所述分类规则个数相同;所述数据包处理模块包含多个上层处理应用,每个所述上层处理应用对应一组数据包处理线程,其中所述数据包处理线程与所述子缓冲区一一对应;
拥塞检测模块,用于在所述多阶段流水线网络流量处理模型上,设置拥塞检测模块,对各个所述数据包处理线程及其对应子缓冲区的性能进行持续监测;在预定周期内采集各个所述数据包处理线程及其对应子缓冲区的性能信息,用于计算拥塞检测结果,并根据所述拥塞检测结果对存在拥塞的所述数据包处理线程进行标记;
生成线程流量环境信息模块,用于对标记为拥塞的所述数据包处理线程进行网络流量短期测量,对接收到的数据包进行采样分析,生成线程流量环境信息,并发送给网络流映射调节模块;
网络流映射调节模块,用于设置所述网络流映射调节模块,接收流量环境信息,并针对该信息和当前时刻流量处理性能信息生成额外网络流映射规则,并应用至子缓冲区映射策略中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110954383.6A CN113518130B (zh) | 2021-08-19 | 2021-08-19 | 一种基于多核处理器的分组突发负载均衡方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110954383.6A CN113518130B (zh) | 2021-08-19 | 2021-08-19 | 一种基于多核处理器的分组突发负载均衡方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113518130A CN113518130A (zh) | 2021-10-19 |
CN113518130B true CN113518130B (zh) | 2023-03-24 |
Family
ID=78069271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110954383.6A Active CN113518130B (zh) | 2021-08-19 | 2021-08-19 | 一种基于多核处理器的分组突发负载均衡方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113518130B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113992425B (zh) * | 2021-11-12 | 2022-09-23 | 北京天融信网络安全技术有限公司 | 一种收发网络数据包的方法、网络设备以及通信系统 |
CN113986557B (zh) * | 2021-11-15 | 2023-09-12 | 北京航空航天大学 | 一种面向全流量采集的存储负载均衡方法及系统 |
CN114257548B (zh) * | 2021-12-21 | 2023-07-18 | 上海交通大学医学院附属瑞金医院 | 一种用于康复设备的大批量数据交换方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110022267A (zh) * | 2018-01-09 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 网络数据包处理方法及装置 |
CN111162935A (zh) * | 2019-12-17 | 2020-05-15 | 中国科学院计算技术研究所 | 一种基于包级别数据分流的网络通信方法及系统 |
CN111211942A (zh) * | 2020-01-03 | 2020-05-29 | 山东超越数控电子股份有限公司 | 一种数据包的收发方法、设备及介质 |
CN112416820A (zh) * | 2020-11-04 | 2021-02-26 | 国网山东省电力公司信息通信公司 | 一种数据包分类存储方法及系统 |
CN113132261A (zh) * | 2019-12-31 | 2021-07-16 | 北京金山云网络技术有限公司 | 一种流量数据包分类方法、装置及电子设备 |
CN113191454A (zh) * | 2021-05-26 | 2021-07-30 | 清创网御(北京)科技有限公司 | 一种多核处理器平台的流量分类方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100459574C (zh) * | 2005-09-19 | 2009-02-04 | 北京大学 | 对网络流进行分类、状态跟踪和报文处理的装置和方法 |
CN101923491A (zh) * | 2010-08-11 | 2010-12-22 | 上海交通大学 | 多核环境下线程组地址空间调度和切换线程的方法 |
CN103023800A (zh) * | 2012-11-29 | 2013-04-03 | 北京航空航天大学 | 采用流表映射调度策略对多核网络处理器下的流量进行调度的方法 |
CN105022671A (zh) * | 2015-07-20 | 2015-11-04 | 中国科学院计算技术研究所 | 一种用于流式数据并行处理的负载均衡方法 |
CN111858056B (zh) * | 2020-07-24 | 2021-12-17 | 南方电网数字电网研究院有限公司 | 任务调度方法、装置、计算机设备和存储介质 |
CN112559535B (zh) * | 2020-12-28 | 2023-08-22 | 平安银行股份有限公司 | 基于多线程的异步任务处理方法、装置、设备及介质 |
CN112749028A (zh) * | 2021-01-11 | 2021-05-04 | 科大讯飞股份有限公司 | 网络流量处理方法、相关设备及可读存储介质 |
CN112905347A (zh) * | 2021-03-04 | 2021-06-04 | 北京澎思科技有限公司 | 数据处理方法、设备及存储介质 |
-
2021
- 2021-08-19 CN CN202110954383.6A patent/CN113518130B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110022267A (zh) * | 2018-01-09 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 网络数据包处理方法及装置 |
CN111162935A (zh) * | 2019-12-17 | 2020-05-15 | 中国科学院计算技术研究所 | 一种基于包级别数据分流的网络通信方法及系统 |
CN113132261A (zh) * | 2019-12-31 | 2021-07-16 | 北京金山云网络技术有限公司 | 一种流量数据包分类方法、装置及电子设备 |
CN111211942A (zh) * | 2020-01-03 | 2020-05-29 | 山东超越数控电子股份有限公司 | 一种数据包的收发方法、设备及介质 |
CN112416820A (zh) * | 2020-11-04 | 2021-02-26 | 国网山东省电力公司信息通信公司 | 一种数据包分类存储方法及系统 |
CN113191454A (zh) * | 2021-05-26 | 2021-07-30 | 清创网御(北京)科技有限公司 | 一种多核处理器平台的流量分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113518130A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113518130B (zh) | 一种基于多核处理器的分组突发负载均衡方法及系统 | |
CN107566206B (zh) | 一种流量测量方法、设备及系统 | |
US8537832B2 (en) | Exception detection and thread rescheduling in a multi-core, multi-thread network processor | |
US8514874B2 (en) | Thread synchronization in a multi-thread network communications processor architecture | |
US8935483B2 (en) | Concurrent, coherent cache access for multiple threads in a multi-core, multi-thread network processor | |
US9154442B2 (en) | Concurrent linked-list traversal for real-time hash processing in multi-core, multi-thread network processors | |
US8155134B2 (en) | System-on-chip communication manager | |
US7269179B2 (en) | Control mechanisms for enqueue and dequeue operations in a pipelined network processor | |
US20110225588A1 (en) | Reducing data read latency in a network communications processor architecture | |
US8910171B2 (en) | Thread synchronization in a multi-thread network communications processor architecture | |
US8997109B2 (en) | Apparatus and method for managing data stream distributed parallel processing service | |
AU2010322819B2 (en) | Processing network traffic | |
US8868889B2 (en) | Instruction breakpoints in a multi-core, multi-thread network communications processor architecture | |
US8555374B2 (en) | High performance packet processing using a general purpose processor | |
US20130275613A1 (en) | Efficient multiple filter packet statistics generation | |
US7293158B2 (en) | Systems and methods for implementing counters in a network processor with cost effective memory | |
US20060161647A1 (en) | Method and apparatus providing measurement of packet latency in a processor | |
US9282051B2 (en) | Credit-based resource allocator circuit | |
JP4648290B2 (ja) | パケット転送装置、パケット分配方法、グループ所属プロセッサ変更方法、およびコンピュータプログラム | |
US8559430B2 (en) | Network connection device, switching circuit device, and method for learning address | |
EP2328315A1 (en) | Processing network traffic | |
US7599361B2 (en) | Wire-speed packet management in a multi-pipeline network processor | |
Wu et al. | Ares: A Scalable High-Performance Passive Measurement Tool Using a Multicore System | |
Crone et al. | A comparison of multi-core flow classification methods for load balancing | |
Fernandez-Rajal Sabala | Comparison of flow tables algorithms for stateful load balancers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |