CN114500398A - 一种处理器协同加速的方法、装置、设备及介质 - Google Patents

一种处理器协同加速的方法、装置、设备及介质 Download PDF

Info

Publication number
CN114500398A
CN114500398A CN202210093937.2A CN202210093937A CN114500398A CN 114500398 A CN114500398 A CN 114500398A CN 202210093937 A CN202210093937 A CN 202210093937A CN 114500398 A CN114500398 A CN 114500398A
Authority
CN
China
Prior art keywords
data packet
processor
data packets
processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210093937.2A
Other languages
English (en)
Other versions
CN114500398B (zh
Inventor
张光锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agricultural Bank of China
Original Assignee
Agricultural Bank of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agricultural Bank of China filed Critical Agricultural Bank of China
Priority to CN202210093937.2A priority Critical patent/CN114500398B/zh
Priority claimed from CN202210093937.2A external-priority patent/CN114500398B/zh
Publication of CN114500398A publication Critical patent/CN114500398A/zh
Application granted granted Critical
Publication of CN114500398B publication Critical patent/CN114500398B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/31Flow control; Congestion control by tagging of packets, e.g. using discard eligibility [DE] bits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • H04L47/2425Traffic characterised by specific attributes, e.g. priority or QoS for supporting services specification, e.g. SLA
    • H04L47/2433Allocation of priorities to traffic types
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/32Flow control; Congestion control by discarding or delaying data units, e.g. packets or frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种处理器协同加速的方法、装置、设备及介质。该方法包括:对接收到的数据包进行预处理,得到预处理后的数据包;基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略;将符合所述分流策略的预处理后的数据包发送至所述图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至所述中央处理器中进行处理。通过本发明实施例的技术方案,能够有效地提升处理器的处理能力,提高NFV系统的数据处理速率。

Description

一种处理器协同加速的方法、装置、设备及介质
技术领域
本发明涉及网络功能虚拟化技术领域,尤其涉及一种处理器协同加速的方法、装置、设备及介质。
背景技术
为了在标准服务器上提供网络功能,现有技术通常采用网络功能虚拟化(NetworkFunctions Virtualization,NFV)的方式,通过软件编程的方式实现各种网络功能,以解耦网络功能与专用硬件的关联。
然而,由于软件编程的方式成本高昂、不易控制、容易出现问题并且不适宜数据量大的场景,导致NFV系统的数据处理速率较低,因此,如何在不增加系统处理时延的情况下,有效地提升处理器的处理能力,提高NFV系统的数据处理速率是目前亟待解决的问题。
发明内容
本发明提供了一种处理器协同加速的方法、装置、设备及介质,可以解决NFV系统的数据处理速率较低的问题。
根据本发明的一方面,提供了一种处理器协同加速的方法,该方法包括:
对接收到的数据包进行预处理,得到预处理后的数据包;
基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略;
将符合所述分流策略的预处理后的数据包发送至所述图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至所述中央处理器中进行处理。
根据本发明的另一方面,提供了一种处理器协同加速的装置,该装置包括:
预处理模块,用于对接收到的数据包进行预处理,得到预处理后的数据包;
策略获取模块,用于基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略;
协同处理模块,用于将符合所述分流策略的预处理后的数据包发送至所述图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至所述中央处理器中进行处理。
根据本发明的另一方面,提供了一种计算机设备,所述计算机设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的处理器协同加速方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的处理器协同加速方法。
本发明实施例的技术方案,通过对接收到的数据包进行预处理,并基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略,再将符合分流策略的预处理后的数据包发送至图形处理器中进行处理,将不符合分流策略的预处理后的数据包发送至所述中央处理器中进行处理,解决了现有技术中由于软件编程的方式成本高昂、不易控制、容易出现问题并且不适宜数据量大的场景,导致NFV系统的数据处理速率较低的问题,可以在降低NFV系统处理时延的基础上,有效地提升处理器的处理能力,提高NFV系统的数据处理速率。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种处理器协同加速方法的流程图;
图2a是根据本发明实施例二提供的一种处理器协同加速方法的流程图;
图2b是根据本发明实施例二提供的一种优选的处理器协同加速的方法的结构示意图;
图2c是根据本发明实施例二提供的一种优选的处理器协同加速的方法的流程示意图;
图3是根据本发明实施例三提供的一种处理器协同加速装置的结构示意图;
图4是实现本发明实施例四提供的一种计算机设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“目标”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
NFV是一种对于网络架构的概念,即将网络节点阶层的功能,分割成几个功能区块,分别通过软件的方式实现各种网络功能,以解耦网络功能与专用硬件的关联,实现在标准服务器上提供网络功能的目的,但是受限于通用硬件的处理能力,NFV的处理速率没法达到与专用硬件实现网络功能方式相近甚至是相同的水平。
为提高NFV系统的处理速率,现有技术中通过分析中央处理器(CentralProcessing Unit,CPU)和图形处理器(Graphic Processing Unit,GPU)在网络应用中处理性能的差别,简单的应用了GPU在NFV中的加速处理方式。然而,由于受到GPU利用率的影响,使得现有技术中构建的CPU-GPU协同处理方法需要极大的开发工作量,为处理时延带来了不可避免的飞跃式的增加。
因此,为解决现有技术中不能更大限度的发挥GPU的加速能力,使得构建的CPU-GPU协同处理方法需要极大的开发工作量,增加了系统处理时延的问题,本发明实施例提出了一种处理器协同加速的方法。
实施例一
图1为本发明实施例一提供了一种处理器协同加速的方法的流程图,本实施例可适用于提升处理器处理能力的情况,该方法可以由处理器协同加速的装置来执行,该处理器协同加速的装置可以采用硬件和/或软件的形式实现,该处理器协同加速的装置可配置于计算机设备中。如图1所示,该方法包括:
S110、对接收到的数据包进行预处理,得到预处理后的数据包。
其中,预处理可以指将接收的数据包进行顺序缓冲以及添加标记等操作,使得预处理后的数据包可以满足后续操作的需求。添加标记可以指根据数据包的网络功能为接收的数据包添加与网络功能对应的标记信息,示例性的,可以将计算密集型或内存密集型的网络功能的标记信息设定为1,将时间敏感型的网络功能的标记信息设定为0,其余类型的网络功能的标记信息设定为3;其中,计算密集型或内存密集型的网络功能可以为要进行大量的计算,消耗CPU资源的网络功能,比如计算圆周率、对视频进行高清解码等;时间敏感型的网络功能可以指相对于时间基准具有已知的传输时间的网络功能,例如转发数据包等;具体的,若接收的数据包的网络功能为计算密集型或内存密集型则为该数据包添加标记信息1;若接收的数据包的网络功能为时间敏感型则为该数据包添加标记信息0;若接收的数据包的网络功能为其他网络功能则为该数据包添加标记信息3。顺序缓冲可以指将数据包依次存入与数据包标记信息相同的缓冲队列中。
S120、基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略。
其中,图形处理器和中央处理器的可用资源信息可以指NFV系统中GPU的可用部分和CPU的可用部分;预处理后的数据包的信息可以指预处理后的数据包的标记信息以及预处理后的数据包的流速信息。分流策略可以指将数据包分流至CPU或GPU中的划分依据,其中可以包含分流的数据包类型,示例性的,将计算密集型或内存密集型网络功能数据包分配给GPU进行处理,将时间敏感型网络功能数据包分配给CPU进行处理;以及分流数据包的数量。符合条件的分流策略可以指满足系统处理吞吐率以及处理时延要求的分流策略。
在一个可选的实施方式中,还包括:将图形处理器和所述中央处理器的可用资源信息、当前数据包的流速以及当前数据包的标记信息输入至当前强化网络中,得到所述当前强化网络依据设定批量提取信息进行数据包提取的反馈信息;将图形处理器和所述中央处理器的可用资源信息、当前数据包的流速、当前数据包的标记信息、设定批量提取信息以及所述反馈信息输入至表示当前强化网络和标准强化网络间误差的损失函数中,得到当前强化网络和标准强化网络间的误差结果;根据所述误差结果对所述当前强化网络进行更新,直至所述误差结果保持恒定,得到策略生成模型;其中,强化网络可以指一种依据强化学习的网络结构,强化学习又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题;当前强化网络可以指策略生成模型中的强化网络;标准强化网络可以指对当前强化网络进行标准衡量的强化网络;设定批量提取信息可以指在模型训练过程中按照预先设定的数量对数据包进行批量提取的动作信息;反馈信息可以指按照设定批量提取信息从当前强化网络中提取数据包后,系统处理吞吐率和处理时延之间的比值;表示当前强化网络和标准强化网络间误差的损失函数loss,可以由下式具体表示:
loss=E[(r+γ*maxa'Q(s',a';θ-)-Q(s,a;θ))2]
其中,s设置为图形处理器可用资源信息GA、中央处理器的可用资源信息CA、当前数据包的流速Rate以及当前数据包的标记信息F组成的四元组,即s=(Rate,CA,GA,F);a为设定批量提取信息;r为反馈信息;θ、θ-别为当前强化网络和标准强化网络的参数;γ为经验折损率。
相应的,基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略,包括:将所述图形处理器和所述中央处理器的可用资源信息、预处理后的数据包的流速以及预处理后的数据包的标记信息输入到策略生成模型中,得到符合条件的分流策略。
由此,基于训练后的策略生成模型,可以通过将图形处理器和中央处理器的可用资源信息、预处理后的数据包的流速以及预处理后的数据包的标记信息输入到策略生成模型中,得到符合条件的分流策略,实现根据不同场景对时效性的需求对数据包进行图形处理器和中央处理器的区分处理,提高了处理器的处理速率。
S130、将符合所述分流策略的预处理后的数据包发送至所述图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至所述中央处理器中进行处理。
具体的,将预处理后的数据包中符合分流策略类型要求的数据包以及数据包数量发送至GPU中进行处理,再将剩余的预处理后的数据包发送至CPU中进行处理,可以实现各处理器的协同加速。
本发明实施例的技术方案,通过对接收到的数据包进行预处理,并基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略,再将符合分流策略的预处理后的数据包发送至图形处理器中进行处理,将不符合分流策略的预处理后的数据包发送至所述中央处理器中进行处理,解决了现有技术中由于软件编程的方式成本高昂、不易控制、容易出现问题并且不适宜数据量大的场景,导致NFV系统的数据处理速率较低的问题,可以在降低NFV系统处理时延的基础上,有效地提升处理器的处理能力,提高NFV系统的数据处理速率。
实施例二
图2a为本发明实施例二提供的一种处理器协同加速的方法的流程图,本实施例以上述实施例为基础进行细化,在本实施例中具体是对所述对接收到的数据包进行预处理,得到预处理后的数据包进行细化,具体可以包括:接收来自网络接口控制器的数据包,并按照所述数据包的输入顺序将所述数据包存放至第一队列中;为所述第一队列中的数据包添加表示网络功能的标记信息,并依次存入标识相同标记信息的工作线程缓冲队列中,得到预处理后的数据包。如图2a所示,该方法包括:
S210、接收来自网络接口控制器的数据包,并按照所述数据包的输入顺序将所述数据包存放至第一队列中。
其中,第一队列可以指预先构建的排队队列。
在一个可选的实施方式中,按照所述数据包的输入顺序将所述数据包存放至第一队列中,包括:若接收到的数据包的长度与所述第一队列中存在的数据包的长度之和,超过所述第一队列的长度,将超过所述第一队列长度的数据包进行丢包处理,并将剩余数据包按照顺序存放至第一队列中;若接收到的数据包的优先级高于所述第一队列中存在的数据包,将接收到的数据包放置在所述第一队列中存在的数据包之前。具体的,对于接收到的数据包,首先按照输入顺序排队存放至第一队列中,同时,对接收的数据包的优先级进行判断,若接收的数据包的优先级高于第一队列中存在的数据包,将接收到的数据包放置在第一队列中存在的数据包之前,之后,计算接收到的数据包的长度与第一队列中存在的数据包的长度之和,判断该长度是否超出第一队列的长度,若该长度未超出第一队列的长度,则继续接收数据包;若该长度超出第一队列的长度,则将超过所述第一队列长度的数据包进行丢包处理,并发出警示,暂停数据包的接收。由此,通过对接收的数据包进行排序存储,可以便于对数据包的管理,以及当第一队列存储长度达到最大值时及时暂停数据包的接收,避免资源的浪费。
S220、为所述第一队列中的数据包添加表示网络功能的标记信息,并依次存入标识相同标记信息的工作线程缓冲队列中,得到预处理后的数据包。
其中,工作线程缓冲队列可以指与工作线程对应的缓冲队列。具体的,对于同一标记信息的数据包可以按照头文件获得的顺序将数据包存入表示同一标识信息的工作线程缓冲队列中。此外,若当前工作线程缓冲队列中未存在与数据包表示同一标记信息的工作线程缓冲队列,则将该数据包存放至空闲工作线程缓冲队列中,当下一个与该数据包表示同一标识信息的数据包进入时即可存放在此工作线程缓冲队列中。
S230、将所述图形处理器和所述中央处理器的可用资源信息、预处理后的数据包的流速以及预处理后的数据包的标记信息输入到策略生成模型中,得到符合条件的分流策略。
S240、从所述预处理后的数据包中提取符合第一批量处理数量且符合设定分类的数据包,作为目标数据包,以及将所述目标数据包发送至图形处理器中进行处理。
其中,第一批量处理数量可以指分流策略中包含的分流至GPU中进行处理的数据包数量;设定分类可以指满足分流策略规定的数据包的网络功能类型;目标数据包可以指符合分流策略要求的预处理后的数据包。
在一个可选的实施方式中,所述将所述目标数据包发送至图形处理器中进行处理包括:将所述目标数据包发送至环形缓冲区中,计算出第二批量处理数量;将所述目标数据包按照所述第二批量处理数据进行划分,并将划分的数据包依次发送至所述图形处理器中进行处理。其中,第二批量处理数量可以指依据GPU的处理特性计算得到的GPU单次批量处理的最优数量。通过将目标数据包发送至环形缓冲区中再次计算出第二批量处理数量,可以使得GPU的利用率增加,提高了处理器协同加速的效率。
S250、将所述预处理后的数据包中除目标数据包外的其余数据包发送至中央处理器中进行处理。
在一个可选的实施方式中,所述将符合所述分流策略的预处理后的数据包发送至图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至中央处理器中进行处理之后,还包括:将图形处理器和中央处理器处理后的数据包分别存入与所述数据包标识相同标记信息的工作线程缓冲队列中;按照各数据包的标记信息将各工作线程缓冲队列中的数据包进行排序,并存放至第二队列中,以备后续处理使用。其中,第二队列可以指预先设定的排队队列。通过将各处理器处理后的数据包存入第二队列中,可以便于后续处理的使用,提高了系统的处理速度。
本发明实施例的技术方案,通过对接收到的数据包进行顺序缓存以及添加标记信息得到预处理后的数据包,并基于图形处理器和中央处理器的可用资源信息、预处理后的数据包的流速以及预处理后的数据包的标记信息确定符合条件的分流策略,再将符合第一批量处理数量且符合设定分类的数据包发送至图形处理器中进行处理,将其余预处理后的数据包发送至所述中央处理器中进行处理,解决了现有技术中由于软件编程的方式成本高昂、不易控制、容易出现问题并且不适宜数据量大的场景,导致NFV系统的数据处理速率较低的问题,可以在降低NFV系统处理时延的基础上,有效地提升处理器的处理能力,提高NFV系统的数据处理速率。
图2b为本发明实施例二提供的一种优选的处理器协同加速的方法的结构示意图。具体的,在CPU中进行数据包分流,将符合分流策略的数据包发送至GPU的内核中进行处理;将不符合分流策略的数据包在CPU中进行处理。并在CPU中将各处理结果进行合并处理。图2c为本发明实施例二提供的一种优选的处理器协同加速的方法的流程示意图。具体的,第一队列RX中的数据包并存放至相应的工作线程缓冲队列中进行预处理,得到预处理后的数据包,之后,将图形处理器和中央处理器的可用资源信息、预处理后的数据包的流速以及预处理后的数据包的标记信息输入到策略生成模型得到符合条件的分流策略,并根据分流策略进行数据包分流处理,将符合分流策略要求的目标数据包,发送至环形缓冲区RB中计算出第二批量处理数量,再将目标数据包按照第二批量处理数据进行划分依次发送至图形处理器中进行处理;将除目标数据包外的其余预处理后的数据包在CPU中进行处理。最后,将CPU和GPU处理后的数据包分别存入与数据包标识相同标记信息的工作线程缓冲队列中,并按照各数据包的标记信息将各工作线程缓冲队列中的数据包进行排序,并存放至第二队列TX中,以备后续处理使用。
实施例三
图3为本发明实施例三提供的一种处理器协同加速的装置的结构示意图。如图3所示,该装置包括:预处理模块310、策略获取模块320、协同处理模块330;
其中,预处理模块310,用于对接收到的数据包进行预处理,得到预处理后的数据包;
策略获取模320,用于基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略;
协同处理模块330,用于将符合所述分流策略的预处理后的数据包发送至所述图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至所述中央处理器中进行处理。
本发明实施例的技术方案,通过对接收到的数据包进行预处理,并基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略,再将符合分流策略的预处理后的数据包发送至图形处理器中进行处理,将不符合分流策略的预处理后的数据包发送至所述中央处理器中进行处理,解决了现有技术中由于软件编程的方式成本高昂、不易控制、容易出现问题并且不适宜数据量大的场景,导致NFV系统的数据处理速率较低的问题,可以在降低NFV系统处理时延的基础上,有效地提升处理器的处理能力,提高NFV系统的数据处理速率。
可选的,处理器协同加速的装置还可以包括模型获取模块,用于将图形处理器和所述中央处理器的可用资源信息、当前数据包的流速以及当前数据包的标记信息输入至当前强化网络中,得到所述当前强化网络依据设定批量提取信息进行数据包提取的反馈信息;将图形处理器和所述中央处理器的可用资源信息、当前数据包的流速、当前数据包的标记信息、设定批量提取信息以及所述反馈信息输入至表示当前强化网络和标准强化网络间误差的损失函数中,得到当前强化网络和标准强化网络间的误差结果;根据所述误差结果对所述当前强化网络进行更新,直至所述误差结果保持恒定,得到策略生成模型;
相应的,策略获取模320具体可以用于,将所述图形处理器和所述中央处理器的可用资源信息、预处理后的数据包的流速以及预处理后的数据包的标记信息输入到策略生成模型中,得到符合条件的分流策略。
可选的,预处理模块310具体可以包括数据包获取单元以及预处理单元;
其中,数据包获取单元,用于接收来自网络接口控制器的数据包,并按照所述数据包的输入顺序将所述数据包存放至第一队列中;
预处理单元,用于为所述第一队列中的数据包添加表示网络功能的标记信息,并依次存入标识相同标记信息的工作线程缓冲队列中,得到预处理后的数据包。
可选的,协同处理模块330具体可以包括图形处理器处理单元和中央处理器处理单元;
其中,图形处理器处理单元,用于从所述预处理后的数据包中提取符合第一批量处理数量且符合设定分类的数据包,作为目标数据包,以及将所述目标数据包发送至图形处理器中进行处理;
中央处理器处理单元,用于将所述预处理后的数据包中除目标数据包外的其余数据包发送至中央处理器中进行处理。
可选的,图形处理器处理单元具体可以用于将所述目标数据包发送至环形缓冲区中,计算出第二批量处理数量;将所述目标数据包按照所述第二批量处理数据进行划分,并将划分的数据包依次发送至所述图形处理器中进行处理。
可选的,数据包获取单元具体可以用于,若接收到的数据包的长度与所述第一队列中存在的数据包的长度之和,超过所述第一队列的长度,将超过所述第一队列长度的数据包进行丢包处理,并将剩余数据包按照顺序存放至第一队列中;若接收到的数据包的优先级高于所述第一队列中存在的数据包,将接收到的数据包放置在所述第一队列中存在的数据包之前。
可选的,处理器协同加速的装置还可以包括合并处理模块,用于在将符合所述分流策略的预处理后的数据包发送至图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至中央处理器中进行处理之后,将图形处理器和中央处理器处理后的数据包分别存入与所述数据包标识相同标记信息的工作线程缓冲队列中;按照各数据包的标记信息将各工作线程缓冲队列中的数据包进行排序,并存放至第二队列中,以备后续处理使用。
本发明实施例所提供的处理器协同加速的装置可执行本发明任意实施例所提供的处理器协同加速的方法,具备执行方法相应的功能模块和有益效果。
实施例四
图4示出了可以用来实施本发明的实施例的计算机设备410的结构示意图。计算机设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。计算机设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图4所示,计算机设备410包括至少一个处理器420,以及与至少一个处理器420通信连接的存储器,如只读存储器(ROM)430、随机访问存储器(RAM)440等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器420可以根据存储在只读存储器(ROM)430中的计算机程序或者从存储单元490加载到随机访问存储器(RAM)440中的计算机程序,来执行各种适当的动作和处理。在RAM 440中,还可存储计算机设备410操作所需的各种程序和数据。处理器420、ROM 430以及RAM 440通过总线450彼此相连。输入/输出(I/O)接口460也连接至总线450。
计算机设备410中的多个部件连接至I/O接口460,包括:输入单元470,例如键盘、鼠标等;输出单元480,例如各种类型的显示器、扬声器等;存储单元490,例如磁盘、光盘等;以及通信单元4100,例如网卡、调制解调器、无线通信收发机等。通信单元4100允许计算机设备410通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器420可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器420的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器420执行上文所描述的各个方法和处理,例如处理器协同加速的方法。
该方法包括:
对接收到的数据包进行预处理,得到预处理后的数据包;
基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略;
将符合所述分流策略的预处理后的数据包发送至所述图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至所述中央处理器中进行处理。
在一些实施例中,处理器协同加速的方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元490。在一些实施例中,计算机程序的部分或者全部可以经由ROM 430和/或通信单元4100而被载入和/或安装到计算机设备410上。当计算机程序加载到RAM 440并由处理器420执行时,可以执行上文描述的处理器协同加速的方法的一个或多个步骤。备选地,在其他实施例中,处理器420可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行处理器协同加速的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机设备上实施此处描述的系统和技术,该计算机设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (10)

1.一种处理器协同加速的方法,其特征在于,包括:
对接收到的数据包进行预处理,得到预处理后的数据包;
基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略;
将符合所述分流策略的预处理后的数据包发送至所述图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至所述中央处理器中进行处理。
2.根据权利要求1所述的方法,其特征在于,还包括:
将图形处理器和所述中央处理器的可用资源信息、当前数据包的流速以及当前数据包的标记信息输入至当前强化网络中,得到所述当前强化网络依据设定批量提取信息进行数据包提取的反馈信息;
将图形处理器和所述中央处理器的可用资源信息、当前数据包的流速、当前数据包的标记信息、设定批量提取信息以及所述反馈信息输入至表示当前强化网络和标准强化网络间误差的损失函数中,得到当前强化网络和标准强化网络间的误差结果;
根据所述误差结果对所述当前强化网络进行更新,直至所述误差结果保持恒定,得到策略生成模型;
相应的,基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略,包括:
将所述图形处理器和所述中央处理器的可用资源信息、预处理后的数据包的流速以及预处理后的数据包的标记信息输入到策略生成模型中,得到符合条件的分流策略。
3.根据权利要求1所述的方法,其特征在于,所述对接收到的数据包进行预处理,得到预处理后的数据包,包括:
接收来自网络接口控制器的数据包,并按照所述数据包的输入顺序将所述数据包存放至第一队列中;
为所述第一队列中的数据包添加表示网络功能的标记信息,并依次存入标识相同标记信息的工作线程缓冲队列中,得到预处理后的数据包。
4.根据权利要求1所述的方法,其特征在于,所述将符合所述分流策略的预处理后的数据包发送至图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至中央处理器中进行处理,包括:
从所述预处理后的数据包中提取符合第一批量处理数量且符合设定分类的数据包,作为目标数据包,以及将所述目标数据包发送至图形处理器中进行处理;
将所述预处理后的数据包中除目标数据包外的其余数据包发送至中央处理器中进行处理。
5.根据权利要求4所述的方法,其特征在于,所述将所述目标数据包发送至图形处理器中进行处理包括:
将所述目标数据包发送至环形缓冲区中,计算出第二批量处理数量;
将所述目标数据包按照所述第二批量处理数据进行划分,并将划分的数据包依次发送至所述图形处理器中进行处理。
6.根据权利要求3所述的方法,其特征在于,按照所述数据包的输入顺序将所述数据包存放至第一队列中,包括:
若接收到的数据包的长度与所述第一队列中存在的数据包的长度之和,超过所述第一队列的长度,将超过所述第一队列长度的数据包进行丢包处理,并将剩余数据包按照顺序存放至第一队列中;
若接收到的数据包的优先级高于所述第一队列中存在的数据包,将接收到的数据包放置在所述第一队列中存在的数据包之前。
7.根据权利要求1所述的方法,其特征在于,所述在将符合所述分流策略的预处理后的数据包发送至图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至中央处理器中进行处理之后,还包括:
将图形处理器和中央处理器处理后的数据包分别存入与所述数据包标识相同标记信息的工作线程缓冲队列中;
按照各数据包的标记信息将各工作线程缓冲队列中的数据包进行排序,并存放至第二队列中,以备后续处理使用。
8.一种处理器协同加速的装置,其特征在于,包括:
预处理模块,用于对接收到的数据包进行预处理,得到预处理后的数据包;
策略获取模块,用于基于图形处理器和中央处理器的可用资源信息以及预处理后的数据包的信息确定符合条件的分流策略;
协同处理模块,用于将符合所述分流策略的预处理后的数据包发送至所述图形处理器中进行处理,并将不符合所述分流策略的预处理后的数据包发送至所述中央处理器中进行处理。
9.一种计算机设备,其特征在于,所述计算机设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的处理器协同加速的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的处理器协同加速的方法。
CN202210093937.2A 2022-01-26 一种处理器协同加速的方法、装置、设备及介质 Active CN114500398B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210093937.2A CN114500398B (zh) 2022-01-26 一种处理器协同加速的方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210093937.2A CN114500398B (zh) 2022-01-26 一种处理器协同加速的方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN114500398A true CN114500398A (zh) 2022-05-13
CN114500398B CN114500398B (zh) 2024-05-28

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116032929A (zh) * 2023-03-30 2023-04-28 阿里巴巴(中国)有限公司 数据处理系统、方法及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103200128A (zh) * 2013-04-01 2013-07-10 华为技术有限公司 一种网络包处理的方法、装置和系统
CN105900064A (zh) * 2014-11-19 2016-08-24 华为技术有限公司 调度数据流任务的方法和装置
US20170177412A1 (en) * 2015-12-20 2017-06-22 Sqream Technologies Ltd Method for executing queries on data chunks Using Graphic Processing Units
CN107688495A (zh) * 2017-06-22 2018-02-13 平安科技(深圳)有限公司 调度处理器的方法及设备
CN109804587A (zh) * 2016-10-12 2019-05-24 高通股份有限公司 用于高数据率的流线化的用户面报头
US20200210228A1 (en) * 2018-12-30 2020-07-02 Paypal, Inc. Scheduling Applications in CPU and GPU Hybrid Environments
CN113849312A (zh) * 2021-09-29 2021-12-28 北京百度网讯科技有限公司 数据处理任务的分配方法、装置、电子设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103200128A (zh) * 2013-04-01 2013-07-10 华为技术有限公司 一种网络包处理的方法、装置和系统
CN105900064A (zh) * 2014-11-19 2016-08-24 华为技术有限公司 调度数据流任务的方法和装置
US20170177412A1 (en) * 2015-12-20 2017-06-22 Sqream Technologies Ltd Method for executing queries on data chunks Using Graphic Processing Units
CN109804587A (zh) * 2016-10-12 2019-05-24 高通股份有限公司 用于高数据率的流线化的用户面报头
CN107688495A (zh) * 2017-06-22 2018-02-13 平安科技(深圳)有限公司 调度处理器的方法及设备
US20200210228A1 (en) * 2018-12-30 2020-07-02 Paypal, Inc. Scheduling Applications in CPU and GPU Hybrid Environments
CN113849312A (zh) * 2021-09-29 2021-12-28 北京百度网讯科技有限公司 数据处理任务的分配方法、装置、电子设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116032929A (zh) * 2023-03-30 2023-04-28 阿里巴巴(中国)有限公司 数据处理系统、方法及设备
CN116032929B (zh) * 2023-03-30 2023-06-23 阿里巴巴(中国)有限公司 数据处理系统、方法及设备

Similar Documents

Publication Publication Date Title
CN114065864B (zh) 联邦学习方法、联邦学习装置、电子设备以及存储介质
CN117135131A (zh) 一种面向云边协同场景的任务资源需求感知方法
CN113778644B (zh) 任务的处理方法、装置、设备及存储介质
CN114490048A (zh) 任务执行方法、装置、电子设备及计算机存储介质
CN112860401A (zh) 任务调度方法、装置、电子设备和存储介质
CN116661960A (zh) 一种批量任务处理方法、装置、设备以及存储介质
CN114500398B (zh) 一种处理器协同加速的方法、装置、设备及介质
CN114500398A (zh) 一种处理器协同加速的方法、装置、设备及介质
CN116303132A (zh) 一种数据缓存方法、装置、设备以及存储介质
CN115599571A (zh) 一种数据处理方法、装置、电子设备及存储介质
CN115952054A (zh) 一种仿真任务资源管理方法、装置、设备及介质
CN113971082A (zh) 任务调度方法、装置、设备、介质及产品
CN114500105A (zh) 一种网络包的拦截方法、装置、设备及存储介质
CN114338543B (zh) 一种网络访问限速方法、装置、设备及存储介质
CN117221245A (zh) 一种消息发送方法、装置、电子设备及存储介质
CN115242648B (zh) 扩缩容判别模型训练方法和算子扩缩容方法
WO2024041401A1 (zh) 用于处理任务的方法、装置、设备和存储介质
CN116048791B (zh) 一种测试节点的调控方法、装置、电子设备以及存储介质
CN118075359A (zh) 基于can通信的数据组包方法、装置、电子设备及介质
CN115622949A (zh) 一种流量调度方法、装置、设备和介质
CN114637584A (zh) 数据处理任务的并行度调整方法、装置、设备及介质
CN115098074A (zh) 接口创建方法、装置、设备、存储介质及计算机程序产品
CN115801718A (zh) 消息处理方法、装置、电子设备及消息处理系统
CN117667397A (zh) 一种gpu资源调度方法、装置、电子设备及存储介质
CN116781694A (zh) 一种应用于边缘计算系统的调度方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant