CN106385385A - 资源分配方法及装置 - Google Patents
资源分配方法及装置 Download PDFInfo
- Publication number
- CN106385385A CN106385385A CN201610864573.8A CN201610864573A CN106385385A CN 106385385 A CN106385385 A CN 106385385A CN 201610864573 A CN201610864573 A CN 201610864573A CN 106385385 A CN106385385 A CN 106385385A
- Authority
- CN
- China
- Prior art keywords
- processor core
- flow number
- distribution flow
- expectation
- maximum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
- H04L47/76—Admission control; Resource allocation using dynamic resource allocation, e.g. in-call renegotiation requested by the user or requested by the network in response to changing network conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
- H04L47/82—Miscellaneous aspects
- H04L47/822—Collecting or measuring resource availability data
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multi Processors (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开了一种资源分配方法及装置,涉及数据处理技术领域,主要用于解决现有资源分配不均的问题。本发明的主要技术方案为:获取预置时间内各处理器核心的实际分配流量数及期望分配流量数;根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距;当所述流量差距值大于预置阈值时,根据各处理器核心的期望重新分配流量数分配各处理器核心的实际分配流量数。本发明主要用于向处理器核心分配资源。
Description
技术领域
本发明涉及数据处理技术领域,特别是涉及一种资源分配方法及装置。
背景技术
随着连接网络设备数的用户急剧增长及各种高宽带应用的出现,单核处理器越来越难以满足高速数据转发的性能需求。而多核处理器凭借其较低成本的扩展能力和并行计算特性,逐渐在网络通信领域得到广泛应用。所谓多核处理器,是指在一个硬件芯片上集成多个核心处理器(Core-CPU),通常为共享内存式结构。多核处理器具备相对独立的多个计算处理核心,可以并行地执行报文处理程序,从而使得报文处理性能得到大幅度提高,进而可以提高系统整体的吞吐率。但是,多核处理器由于共享许多硬件和软件资源,在数据转发繁忙时,如何能够提高彼此的协同效率,减少相互等待时间,充分发挥并行特性成为多核处理器平台软件开发的难点。
目前,通过RSS(receive side scaling,接收端缩放)算法对接收到的网络会话分配处理器核心,即根据网络会话中携带的特征值计算网络会话的哈希值,如根据网络会话中的源IP、目的IP、源端口、目的端口四元组连接成的数据段计算网络会话的哈希值,然后根据对哈希值进行取模运算得到处理该网络会话的处理器核心。
但是,在一些特定场景下,如一天之内的某一高峰时段对某一网络产生大量访问,且恰巧对应的大部分的哈希值相同,那么RSS就有可能把流量只分配到有限的处理器核心资源上,使得其他处理器核心无法发挥其应有的高性能,造成资源浪费。因此现有资源分配方式分配资源不均,无法满足各种场景下的资源分配。
发明内容
有鉴于此,本发明提供一种资源分配方法及装置,主要目的在于解决现有资源分配不均的问题。
依据本发明一个方面,提供了一种资源分配方法,该方法包括:
获取预置时间内各处理器核心的实际分配流量数及期望分配流量数;
根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距;
当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。
具体的,所述根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值包括:
计算各处理器核心的实际分配流量数与期望分配流量数的差值,并计算所述差值的平方;
汇总所述差值的平方得到所述流量差距值。
进一步地,所述方法还包括:
接收所述预置时间内的网络会话;
获取各网络会话对应数组的数组下标,及各网络会话对应的流量数;
统计所述数组中各数组下标分别对应的流量数。
具体的,所述根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数包括:
将各处理器核心的实际分配流量数均设置为零;并设置各个处理器核心的期望分配流数量的大小;
将所述数组中各数组下标分别对应的流量数全部分配给期望分配流量数最大的处理器核心中;
判断所述期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和是否小于等于所述处理空间最大的处理器核心的期望分配流量数,所述处理空间为处理器核心的期望分配流量数与实际分配流量数的差值;
若是,则将所述期望分配流量数最大的处理器核心中数值最大的流量数分配给所述处理空间最大的处理器核心中。
进一步地,所述方法还包括:
判断所述期望分配流量数最大的处理器核心中剩余流量数总和是否大于对应的期望分配流量数;
若大于,则根据各处理器核心的期望分配流量数及实际分配流量数为所述剩余处理器核心再次分配流量数。
具体的,所述根据各处理器核心的期望分配流量数及实际分配流量数为所述剩余处理器核心再次分配流量数包括:
计算所述期望分配流量数最大的处理器核心中剩余流量数总和与对应的期望分配流量数的差值,获得第一流量差值;
获取剩余处理器核心中实际分配流量数与期望分配流量数差值最大的处理器核心,获得第二流量差值及第一处理器核心;
判断所述期望分配流量数最大的处理器核心中剩余的最小流量数是否小于所述第一流量差值与所述第二流量差值的差;
若小于,则将所述剩余的最小流量数分配给所述第一处理器核心。
进一步地,所述方法还包括:
获取各处理器核心中各个数组下标及各处理器核心的标识号;
将所述数组中各数组下标的值设置成对应的处理器核心的标识号。
依据本发明一个方面,提供了一种资源分配装置,该装置包括:
获取单元,用于获取预置时间内各处理器核心的实际分配流量数及期望分配流量数;
计算单元,应用根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距;
分配单元,用于当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。
具体的,所述计算单元包括:
计算模块,用于计算各处理器核心的实际分配流量数与期望分配流量数的差值,并计算所述差值的平方;
汇总模块,用于汇总所述差值的平方得到所述流量差距值。
进一步地,所述装置还包括:
接收单元,用于接收所述预置时间内的网络会话;
所述获取单元,还用于获取各网络会话对应数组的数组下标,及各网络会话对应的流量数;
统计单元,用于统计所述数组中各数组下标分别对应的流量数。
具体的,所述分配单元包括:
设置模块,用于将各处理器核心的实际分配流量数均设置为零;并设置各个处理器核心的期望分配流数量的大小;
分配模块,用于将所述数组中各数组下标分别对应的流量数全部分配给期望分配流量数最大的处理器核心中;
判断模块,用于判断所述期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和是否小于等于所述处理空间最大的处理器核心的期望分配流量数,所述处理空间为处理器核心的期望分配流量数与实际分配流量数的差值;
所述分配模块,还用于若所述期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和小于等于所述处理空间最大的处理器核心的期望分配流量数,则将所述期望分配流量数最大的处理器核心中数值最大的流量数分配给所述处理空间最大的处理器核心中。
进一步地,所述装置还包括:
判断单元,用于判断所述期望分配流量数最大的处理器核心中剩余流量数总和是否大于对应的期望分配流量数;
所述分配单元,还用于若所述期望分配流量数最大的处理器核心中剩余流量数总和大于对应的期望分配流量数,则根据各处理器核心的期望分配流量数及实际分配流量数为所述剩余处理器核心再次分配流量数。
具体的,所述分配单元还包括:
计算模块,用于计算所述期望分配流量数最大的处理器核心中剩余流量数总和与对应的期望分配流量数的差值,获得第一流量差值;
获取模块,用于获取剩余处理器核心中实际分配流量数与期望分配流量数差值最大的处理器核心,获得第二流量差值及第一处理器核心;
所述判断模块,还用于判断所述期望分配流量数最大的处理器核心中剩余的最小流量数是否小于所述第一流量差值与所述第二流量差值的差;
所述分配模块,还用于若所述期望分配流量数最大的处理器核心中剩余的最小流量数小于所述第一流量差值与所述第二流量差值的差,则将所述剩余的最小流量数分配给所述第一处理器核心。
进一步地,述装置还包括:
所述获取单元,还用于获取各处理器核心中各个数组下标及各处理器核心的标识号;
设置单元,用于将所述数组中各数组下标的值设置成对应的处理器核心的标识号。
借由上述技术方案,本发明实施例提供的技术方案至少具有下列优点:
本发明实施例提供的一种资源分配方法及装置,首先获取预置时间内各处理器核心的实际分配流量数及期望分配流量数,然后根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距,当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。与目前通过RSS算法对接收到的网络会话分配处理器核心相比,本发明实施例当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数,即直接在RSS计算的数组下标的基础上进行流量统计,并按照流量值的大小从新分配各处理器核心中的实际分配流量数,从而解决了资源分配不均的问题。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种资源分配方法流程图;
图2示出了本发明实施例提供的另一种资源分配方法流程图;
图3示出了本发明实施例提供的一种资源分配装置的结构框图;
图4示出了本发明实施例提供的另一种资源分配装置的结构框图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
为使本发明技术方案的优点更加清楚,下面结合附图和实施例对本发明作详细说明。
本发明实施例提供了一种资源分配方法,如图1所示,所述方法包括:
101、获取预置时间内各处理器核心的实际分配流量数及期望分配流量数。
其中,所述预置时间可以根据实际需求进行设置,具体可以为1天、2天、3天等,本发明实施例不做具体限定。需要说明的是,本发明实施例包括多个处理器核心,不同的处理器核心对应不同的实际分配流量数、期望分配流量数,实际分配流量是处理器核心实际分配到的流量,期望分配流量是处理器核心期望分配到的流量,各处理器核心的实际分配流量具体可通过u0,u1,…,uq-1表示,期望分配流量具体可通过v0,v1,…,vq-1表示。
102、根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值。
其中,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距。在本发明实施例中,步骤102包括:算各处理器核心的实际分配流量数与期望分配流量数的差值,并计算所述差值的平方;汇总所述差值的平方得到所述流量差距值。
具体的,本发明通过公式计算流量差距值。
其中,ST表示流量差距值,ui表示处理器核心的实际分配流量数,vi表示处理器核心的期望分配流量数,q代表处理器核心的个数。在本发明实施例中,流量差距值越大说明实际分配流量数与期望分配流量数之间的差距越大,处理器核心分配的流量越不均衡,因此当流量差距值大于预置阈值时,需要执行步骤103根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数,以缩减实际分配流量数与期望分配流量数之间的差距,从而实现数据流量的均衡分配。
103、当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。
其中,所述预置阈值是根据实际需求进行设置的,当流量差距值大于该预置阈值时,则根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。
本发明实施例提供的一种资源分配方法,首先获取预置时间内各处理器核心的实际分配流量数及期望分配流量数,然后根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距,当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。即直接在RSS计算的数组下标的基础上进行流量统计,并按照流量值的大小从新分配各处理器核心中的实际分配流量数,从而解决了资源分配不均的问题。
本发明实施例提供了另一种资源分配方法,如图2所示,所述方法包括:
201、获取预置时间内各处理器核心的实际分配流量数及期望分配流量数。
其中,关于步骤201获取预置时间内各处理器核心的实际分配流量数及期望分配流量数的相关描述,可以参考图1对应部分的描述,本发明实施例此处将不再赘述。
202、根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值。
其中,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距,对于本发明实施例,步骤202包括:计算各处理器核心的实际分配流量数与期望分配流量数的差值,并计算所述差值的平方;汇总所述差值的平方得到所述流量差距值。关于步骤202根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值的相关描述,可以参考图1对应部分的描述,本发明实施例此处将不再赘述。
203、当所述流量差距值大于预置阈值时,将各处理器核心的实际分配流量数均设置为零;并设置各个处理器核心的期望分配流数量的大小。
具体的,本发明实施例中各处理器核心的实际分配流量具体可通过u0,u1,…,uq-1表示,期望分配流量具体可通过v0,v1,…,vq-1表示。假设通过id值表示处理器核心的核号,即通过(0—q-1)标识处理器核心的核号id。将各处理器核心的实际分配流量数均设置为零,即将u0,u1,…,uq-1全部设置成零;设置各个处理器核心的期望分配流数量的大小,即可根据v0≥v1≥…≥vq-1表示各个处理器核心的期望分配流数量的大小。
204、将所述数组中各数组下标分别对应的流量数全部分配给期望分配流量数最大的处理器核心中。
在本发明实施例中,在步骤204之前,所述方法还包括:接收所述预置时间内的网络会话;获取各网络会话对应数组的数组下标,及各网络会话对应的流量数;统计所述数组中各数组下标分别对应的流量数。需要说明的是,获取各网络会话对应数组的数组下标可通过RSS(receive side scaling,接收端缩放)算法得到,即根据key(密钥)和输入的网络数据信息input通过给定的hash算法计算出一个32位的hash值。其中,输入的网络数据信息input是由网络会话中的源IP、目的IP、源端口、目的端口四元组连接成的数据段。关于hash算法,其对应的32位hash值由如下方式产生:
(1)首先将hash结果设置为0;
(2)如果input最左端的一位为1,则将result更新为result自身与key最左端32位的异或值;否则result的数值保持不变;
(3)将input与key均左移一位;
(4)如果input为0,则将result作为输出结果;否则重复执行步骤(2)、(3)、(4)。
最后,取出上述hash值(result)的7位最低有效位,即result二进制数的最右侧7位作为redirection table数组的数组下标。
对于本发明实施例,若获取1天内的网络会话,将这些网络会话转换redirectiontable中对应的数组下标,并统计数组中各数组下标分别对应的流量数,即redirectiontable数组中128个位置上每个值所对应的流量数,数组中各个数组下标对应的流量数通过{ti}1≤i≤128表示,用h(ti)表示各流量数对应数组下标。在初始阶段显然有h(ti)=i,假设这些流量{ti}1≤i≤128被q个核分摊处理,每个核处理的流量记为u0,u1,…,uq-1,按比例期望分配的数量记为v0,v1,…,vq-1,且总流量为S,则S=u0+u1+…+uq-1=v0+v1+…+vq-1=t1+t2+…+t128。
需要说明的是,若本发明实施例设置的各个处理器核心的期望分配流数量的大小为v0≥v1≥…≥vq-1,则将所述数组中各数组下标分别对应的流量数全部分配给期望分配流量数最大的处理器核心中,即将所有ti都分给期望分配流量数v0对应的处理器核心,使得该处理器核心中的实际分配流量数u0=S。
205、判断所述期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和是否小于等于所述处理空间最大的处理器核心的期望分配流量数。
其中,所述处理空间为处理器核心的期望分配流量数与实际分配流量数的差值,剩余处理器核心是除了期望分配流量数最大的处理器核心之外的处理器核心。需要说明的是,本发明实施例为了使各处理器核心中的实际分配流量数尽可能大,但不能大于对应的期望分配流量值,因此在为处理器核心分配流量数之前,需要期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和是否小于等于所述处理空间最大的处理器核心的期望分配流量数。
例如,本发明实施例设置的各个处理器核心的期望分配流数量的大小为v0≥v1≥…≥vq-1,并将所有ti都分给期望分配流量数v0对应的0号处理器核心中,则对0号处理器核心中的{ti}1≤i≤128按从大到小的顺序排序,若t1为数值最大的流量数,由于1号处理器核心的期望分配流数量v0最大,且初始化时各个处理器核心的实际分配流量数u0均为0,因此1号处理器核心的处理空间最大,然后判断t1与1号处理器核心际分配流量数u0的和是否小于等于1号处理器核心期望分配流数量v0,如果小于等于则将t1分配到1号处理器核心中,之后继续进行判断期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和是否小于等于所述处理空间最大的处理器核心的期望分配流量数的步骤,直至期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和大于处理空间最大的处理器核心的期望分配流量数为止,使得流量差距值越小越好。
206、若是,则将所述期望分配流量数最大的处理器核心中数值最大的流量数分配给所述处理空间最大的处理器核心中。
207、判断所述期望分配流量数最大的处理器核心中剩余流量数总和是否大于对应的期望分配流量数。
需要说明的是,当期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和大于处理空间最大的处理器核心的期望分配流量数时,说明0号处理器核心中的ti无法继续再通过步骤205、206进行分配,因此0号处理器核心中数值最大的流量数已经无法分配到处理空间最大的处理器核心的期望,那么比处理空间最大的处理器核心小的处理器核心也将无法分配到该数值最大的流量数。但是0号处理器核心中还有可能包括一些剩余的流量数,因此本发明实施例需要判断期望分配流量数最大的处理器核心中剩余流量数总和是否大于对应的期望分配流量数,即判断u0是否大于v0,如果u0大于v0则执行跳转步骤208顺序执行,将u0中的剩余流量数有选择地分给其余处理器核心;如果u0小于等于v0则完成处理器核心的资源分配。
208、若大于,则根据各处理器核心的期望分配流量数及实际分配流量数为所述剩余处理器核心再次分配流量数。
对于本发明实施例,步骤208包括:计算所述期望分配流量数最大的处理器核心中剩余流量数总和与对应的期望分配流量数的差值,获得第一流量差值;获取剩余处理器核心中实际分配流量数与期望分配流量数差值最大的处理器核心,获得第二流量差值及第一处理器核心;判断所述期望分配流量数最大的处理器核心中剩余的最小流量数是否小于所述第一流量差值与所述第二流量差值的差;若小于,则将所述剩余的最小流量数分配给所述第一处理器核心。
具体的,本发明实施例将各个处理器核心中的u0-v0,u1-v1,…,uq-1-vq-1从大到小排序,由于u0大于v0,因此排序后u0-v0仍然处于第一个位置,即u0-v0为最大的元素组。然后将u0内剩余的流量数从小到大依次遍历取出,准备依次分配给从小到大排序后的u1-v1,…,uq-1-vq-1中。在任意一次分配中,如果u0要将尚未分配的ti分配给uj,那么必须保证ti<(u0-v0)-(uj-vj)。相反如果u0-v0<ti+(uj-vj),则不予分配。
需要说明的是,本发明实施例为了在最后一个环节的分配中,每次分配都能够使处理器核心的实际分配流量数逐渐接近期望分配流量数。即u0,uj,ti,v需满足(u0-ti-v0)2+(uj+ti-vj)2<(u0-v0)2+(uj-vj)2,整理上述不等式可得u0-v0<ti+(uj-vj)。也就是说,当u0-v0<ti+(uj-vj)时,分配是不合理的。由于此时的与{uj-vj}0≤i<q均为递减序列,当j'≤j,i'≤i时,必然有u0-v0<ti'+(uj'-vj'),因此,一旦一次分配无法进行,后续的分配也必然是不合适的。
进一步地,所述方法还包括:获取各处理器核心中各个数组下标及各处理器核心的标识号;将所述数组中各数组下标的值设置成对应的处理器核心的标识号。
需要说明的是,为了保证处理器核心正常处理任务,本发明实施例可以在收集一段时间的流量数之后,在业务量较小时进行重新调配处理器核心处理的流量数,或者在用户界面点击时进行重新调配处理器核心处理的流量数,本发明实施例不做具体限定。因此本发明实施例可将步骤203-步骤208中向各个处理器核心分配流量数转变成重新安排{ti}1≤i≤128的分组,即向各个处理器核心分配的流量数转变成向各个组分配流量数,其中处理器核心的个数与组的个数相同,完成各组的流量数分配之后,获取各分组中各个数组下标及各分组的标识号;将所述数组中各数组下标的值设置成对应分组的标识号。
例如,对于最优分组方案的第k个分组,0≤k≤q-1,取出其对应的各个ti值,将redirection table上的第h(ti)个位置设为k。在数组中各数组下标的值设置成对应分组的标识号之后,可在业务量较小时或者在用户界面点击时进行从新分配处理器核心的流量数。从而保证系统配置不断地适应系统的实际运行环境,最大限度的保证系统的正常运行。
进一步地,本发明实施例提供一种资源分配装置,如图3所示,所述装置包括:获取单元31、计算单元32、分配单元33。
获取单元31,用于获取预置时间内各处理器核心的实际分配流量数及期望分配流量数;
其中,所述预置时间可以根据实际需求进行设置,具体可以为1天、2天、3天等,本发明实施例不做具体限定。需要说明的是,本发明实施例包括多个处理器核心,不同的处理器核心对应不同的实际分配流量数、期望分配流量数,实际分配流量是处理器核心实际分配到的流量,期望分配流量是处理器核心期望分配到的流量,各处理器核心的实际分配流量具体可通过u0,u1,…,uq-1表示,期望分配流量具体可通过v0,v1,…,vq-1表示。
计算单元32,应用根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距;
具体的,本发明通过公式计算流量差距值。
其中,ST表示流量差距值,ui表示处理器核心的实际分配流量数,vi表示处理器核心的期望分配流量数,q代表处理器核心的个数。在本发明实施例中,流量差距值越大说明实际分配流量数与期望分配流量数之间的差距越大,处理器核心分配的流量越不均衡,因此当流量差距值大于预置阈值时,需要执行步骤103根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数,以缩减实际分配流量数与期望分配流量数之间的差距,从而实现数据流量的均衡分配。
分配单元33,用于当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。
其中,所述预置阈值是根据实际需求进行设置的,当流量差距值大于该预置阈值时,则根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。
需要说明的是,本发明实施例提供的一种资源分配装置所涉及各功能单元的其他相应描述,可以参考图1所示方法的对应描述,在此不再赘述,但应当明确,本实施例中的装置能够对应实现前述方法实施例中的全部内容。
本发明实施例提供的一种资源分配装置,首先获取预置时间内各处理器核心的实际分配流量数及期望分配流量数,然后根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距,当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。即直接在RSS计算的数组下标的基础上进行流量统计,并按照流量值的大小从新分配各处理器核心中的实际分配流量数,从而解决了资源分配不均的问题。
进一步地,本发明实施例提供另一种资源分配装置,如图4所示,所述装置包括:获取单元41、计算单元42、分配单元43。
获取单元41,用于获取预置时间内各处理器核心的实际分配流量数及期望分配流量数;
计算单元42,应用根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距;
分配单元43,用于当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。
具体的,所述计算单元42包括:
计算模块421,用于计算各处理器核心的实际分配流量数与期望分配流量数的差值,并计算所述差值的平方;
汇总模块422,用于汇总所述差值的平方得到所述流量差距值。
进一步地,所述装置还包括:
接收单元44,用于接收所述预置时间内的网络会话;
所述获取单元41,还用于获取各网络会话对应数组的数组下标,及各网络会话对应的流量数;
统计单元45,用于统计所述数组中各数组下标分别对应的流量数。
对于本发明实施例,若获取1天内的网络会话,将这些网络会话转换redirectiontable中对应的数组下标,并统计数组中各数组下标分别对应的流量数,即redirectiontable数组中128个位置上每个值所对应的流量数,数组中各个数组下标对应的流量数通过{ti}1≤i≤128表示,用h(ti)表示各流量数对应数组下标。在初始阶段显然有h(ti)=i,假设这些流量{ti}1≤i≤128被q个核分摊处理,每个核处理的流量记为u0,u1,…,uq-1,按比例期望分配的数量记为v0,v1,…,vq-1,且总流量为S,则S=u0+u1+…+uq-1=v0+v1+…+vq-1=t1+t2+…+t128。
具体的,所述分配单元43包括:
设置模块431,用于将各处理器核心的实际分配流量数均设置为零;并设置各个处理器核心的期望分配流数量的大小;
具体的,本发明实施例中各处理器核心的实际分配流量具体可通过u0,u1,…,uq-1表示,期望分配流量具体可通过v0,v1,…,vq-1表示。假设通过id值表示处理器核心的核号,即通过(0—q-1)标识处理器核心的核号id。将各处理器核心的实际分配流量数均设置为零,即将u0,u1,…,uq-1全部设置成零;设置各个处理器核心的期望分配流数量的大小,即可根据v0≥v1≥…≥vq-1表示各个处理器核心的期望分配流数量的大小。
分配模块432,用于将所述数组中各数组下标分别对应的流量数全部分配给期望分配流量数最大的处理器核心中;
需要说明的是,若本发明实施例设置的各个处理器核心的期望分配流数量的大小为v0≥v1≥…≥vq-1,则将所述数组中各数组下标分别对应的流量数全部分配给期望分配流量数最大的处理器核心中,即将所有ti都分给期望分配流量数v0对应的处理器核心,使得该处理器核心中的实际分配流量数u0=S。
判断模块433,用于判断所述期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和是否小于等于所述处理空间最大的处理器核心的期望分配流量数,所述处理空间为处理器核心的期望分配流量数与实际分配流量数的差值;
其中,所述处理空间为处理器核心的期望分配流量数与实际分配流量数的差值,剩余处理器核心是除了期望分配流量数最大的处理器核心之外的处理器核心。需要说明的是,本发明实施例为了使各处理器核心中的实际分配流量数尽可能大,但不能大于对应的期望分配流量值,因此在为处理器核心分配流量数之前,需要期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和是否小于等于所述处理空间最大的处理器核心的期望分配流量数。
例如,本发明实施例设置的各个处理器核心的期望分配流数量的大小为v0≥v1≥…≥vq-1,并将所有ti都分给期望分配流量数v0对应的0号处理器核心中,则对0号处理器核心中的{ti}1≤i≤128按从大到小的顺序排序,若t1为数值最大的流量数,由于1号处理器核心的期望分配流数量v0最大,且初始化时各个处理器核心的实际分配流量数u0均为0,因此1号处理器核心的处理空间最大,然后判断t1与1号处理器核心际分配流量数u0的和是否小于等于1号处理器核心期望分配流数量v0,如果小于等于则将t1分配到1号处理器核心中,之后继续进行判断期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和是否小于等于所述处理空间最大的处理器核心的期望分配流量数的步骤,直至期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和大于处理空间最大的处理器核心的期望分配流量数为止,使得流量差距值越小越好。
所述分配模块432,还用于若所述期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和小于等于所述处理空间最大的处理器核心的期望分配流量数,则将所述期望分配流量数最大的处理器核心中数值最大的流量数分配给所述处理空间最大的处理器核心中。
进一步地,所述装置还包括:
判断单元46,用于判断所述期望分配流量数最大的处理器核心中剩余流量数总和是否大于对应的期望分配流量数;
所述分配单元43,还用于若所述期望分配流量数最大的处理器核心中剩余流量数总和大于对应的期望分配流量数,则根据各处理器核心的期望分配流量数及实际分配流量数为所述剩余处理器核心再次分配流量数。
具体的,所述分配单元43还包括:
计算模块434,用于计算所述期望分配流量数最大的处理器核心中剩余流量数总和与对应的期望分配流量数的差值,获得第一流量差值;
获取模块435,用于获取剩余处理器核心中实际分配流量数与期望分配流量数差值最大的处理器核心,获得第二流量差值及第一处理器核心;
所述判断模块433,还用于判断所述期望分配流量数最大的处理器核心中剩余的最小流量数是否小于所述第一流量差值与所述第二流量差值的差;
所述分配模块432,还用于若所述期望分配流量数最大的处理器核心中剩余的最小流量数小于所述第一流量差值与所述第二流量差值的差,则将所述剩余的最小流量数分配给所述第一处理器核心。
具体的,本发明实施例将各个处理器核心中的u0-v0,u1-v1,…,uq-1-vq-1从大到小排序,由于u0大于v0,因此排序后u0-v0仍然处于第一个位置,即u0-v0为最大的元素组。然后将u0内剩余的流量数从小到大依次遍历取出,准备依次分配给从小到大排序后的u1-v1,…,uq-1-vq-1中。在任意一次分配中,如果u0要将尚未分配的ti分配给uj,那么必须保证ti<(u0-v0)-(uj-vj)。相反如果u0-v0<ti+(uj-vj),则不予分配。
需要说明的是,本发明实施例为了在最后一个环节的分配中,每次分配都能够使处理器核心的实际分配流量数逐渐接近期望分配流量数。即u0,uj,ti,v需满足(u0-ti-v0)2+(uj+ti-vj)2<(u0-v0)2+(uj-vj)2,整理上述不等式可得u0-v0<ti+(uj-vj)。也就是说,当u0-v0<ti+(uj-vj)时,分配是不合理的。由于此时的与{uj-vj}0≤i<q均为递减序列,当j'≤j,i'≤i时,必然有u0-v0<ti'+(uj'-vj'),因此,一旦一次分配无法进行,后续的分配也必然是不合适的。
进一步地,所述装置还包括:
所述获取单元41,还用于获取各处理器核心中各个数组下标及各处理器核心的标识号;
设置单元47,用于将所述数组中各数组下标的值设置成对应的处理器核心的标识号。
需要说明的是,为了保证处理器核心正常处理任务,本发明实施例可以在收集一段时间的流量数之后,在业务量较小时进行重新调配处理器核心处理的流量数,或者在用户界面点击时进行重新调配处理器核心处理的流量数,本发明实施例不做具体限定。因此本发明实施例可将步骤203-步骤208中向各个处理器核心分配流量数转变成重新安排{ti}1≤i≤128的分组,即向各个处理器核心分配的流量数转变成向各个组分配流量数,其中处理器核心的个数与组的个数相同,完成各组的流量数分配之后,获取各分组中各个数组下标及各分组的标识号;将所述数组中各数组下标的值设置成对应分组的标识号。
例如,对于最优分组方案的第k个分组,0≤k≤q-1,取出其对应的各个ti值,将redirection table上的第h(ti)个位置设为k。在数组中各数组下标的值设置成对应分组的标识号之后,可在业务量较小时或者在用户界面点击时进行从新分配处理器核心的流量数。从而保证系统配置不断地适应系统的实际运行环境,最大限度的保证系统的正常运行。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
可以理解的是,上述方法及装置中的相关特征可以相互参考。另外,上述实施例中的“第一”、“第二”等是用于区分各实施例,而并不代表各实施例的优劣。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的资源分配方法及装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种资源分配方法,其特征在于,包括:
获取预置时间内各处理器核心的实际分配流量数及期望分配流量数;
根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距;
当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。
2.根据权利要求1所述的方法,其特征在于,所述根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值包括:
计算各处理器核心的实际分配流量数与期望分配流量数的差值,并计算所述差值的平方;
汇总所述差值的平方得到所述流量差距值。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
接收所述预置时间内的网络会话;
获取各网络会话对应数组的数组下标,及各网络会话对应的流量数;
统计所述数组中各数组下标分别对应的流量数。
4.根据权利要求3所述的方法,其特征在于,所述根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数包括:
将各处理器核心的实际分配流量数均设置为零;并设置各个处理器核心的期望分配流数量的大小;
将所述数组中各数组下标分别对应的流量数全部分配给期望分配流量数最大的处理器核心中;
判断所述期望分配流量数最大的处理器核心中数值最大的流量数与剩余处理器核心中处理空间最大的处理器核心的实际分配流量数的和是否小于等于所述处理空间最大的处理器核心的期望分配流量数,所述处理空间为处理器核心的期望分配流量数与实际分配流量数的差值;
若是,则将所述期望分配流量数最大的处理器核心中数值最大的流量数分配给所述处理空间最大的处理器核心中。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
判断所述期望分配流量数最大的处理器核心中剩余流量数总和是否大于对应的期望分配流量数;
若大于,则根据各处理器核心的期望分配流量数及实际分配流量数为所述剩余处理器核心再次分配流量数。
6.根据权利要求5所述的方法,其特征在于,所述根据各处理器核心的期望分配流量数及实际分配流量数为所述剩余处理器核心再次分配流量数包括:
计算所述期望分配流量数最大的处理器核心中剩余流量数总和与对应的期望分配流量数的差值,获得第一流量差值;
获取剩余处理器核心中实际分配流量数与期望分配流量数差值最大的处理器核心,获得第二流量差值及第一处理器核心;
判断所述期望分配流量数最大的处理器核心中剩余的最小流量数是否小于所述第一流量差值与所述第二流量差值的差;
若小于,则将所述剩余的最小流量数分配给所述第一处理器核心。
7.根据权利要求3-6任一项所述的方法,其特征在于,所述方法还包括:
获取各处理器核心中各个数组下标及各处理器核心的标识号;
将所述数组中各数组下标的值设置成对应的处理器核心的标识号。
8.一种资源分配装置,其特征在于,包括:
获取单元,用于获取预置时间内各处理器核心的实际分配流量数及期望分配流量数;
计算单元,应用根据各处理器核心的实际分配流量数及期望分配流量数计算流量差距值,所述流量差距值用于表示实际分配流量数与期望分配流量数之间的差距;
分配单元,用于当所述流量差距值大于预置阈值时,根据各处理器核心的期望分配流量数重新分配各处理器核心的实际分配流量数。
9.根据权利要求8所述的装置,其特征在于,所述计算单元包括:
计算模块,用于计算各处理器核心的实际分配流量数与期望分配流量数的差值,并计算所述差值的平方;
汇总模块,用于汇总所述差值的平方得到所述流量差距值。
10.根据权利要求8所述的装置,其特征在于,所述装置还包括:
接收单元,用于接收所述预置时间内的网络会话;
所述获取单元,还用于获取各网络会话对应数组的数组下标,及各网络会话对应的流量数;
统计单元,用于统计所述数组中各数组下标分别对应的流量数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610864573.8A CN106385385B (zh) | 2016-09-29 | 2016-09-29 | 资源分配方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610864573.8A CN106385385B (zh) | 2016-09-29 | 2016-09-29 | 资源分配方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106385385A true CN106385385A (zh) | 2017-02-08 |
CN106385385B CN106385385B (zh) | 2020-02-21 |
Family
ID=57936053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610864573.8A Active CN106385385B (zh) | 2016-09-29 | 2016-09-29 | 资源分配方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106385385B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114257549A (zh) * | 2021-12-21 | 2022-03-29 | 北京锐安科技有限公司 | 一种流量的转发方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1728698A (zh) * | 2004-07-30 | 2006-02-01 | 国家数字交换系统工程技术研究中心 | 并行结构保序流量平衡系统及基于流分类的报文调度方法 |
CN1979423A (zh) * | 2005-11-30 | 2007-06-13 | 迈普(四川)通信技术有限公司 | 多处理器负载分配调整方法 |
CN101577705A (zh) * | 2008-05-08 | 2009-11-11 | 北京东华合创数码科技股份有限公司 | 一种多核并行的网络业务流负载均衡方法及其系统 |
WO2010036656A2 (en) * | 2008-09-29 | 2010-04-01 | Intel Corporation | Directing data units to a core supporting tasks |
CN102301664A (zh) * | 2011-07-20 | 2011-12-28 | 华为技术有限公司 | 多核处理器的流分发方法及装置 |
CN102549984A (zh) * | 2009-05-05 | 2012-07-04 | 思杰系统有限公司 | 在多核架构中分组引导的系统和方法 |
CN104994036A (zh) * | 2015-06-09 | 2015-10-21 | 北京邮电大学 | 一种多路径传输协议中的动态数据调度方法 |
CN105207948A (zh) * | 2014-06-30 | 2015-12-30 | 中兴通讯股份有限公司 | 数据报文的分配方法及装置 |
-
2016
- 2016-09-29 CN CN201610864573.8A patent/CN106385385B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1728698A (zh) * | 2004-07-30 | 2006-02-01 | 国家数字交换系统工程技术研究中心 | 并行结构保序流量平衡系统及基于流分类的报文调度方法 |
CN1979423A (zh) * | 2005-11-30 | 2007-06-13 | 迈普(四川)通信技术有限公司 | 多处理器负载分配调整方法 |
CN101577705A (zh) * | 2008-05-08 | 2009-11-11 | 北京东华合创数码科技股份有限公司 | 一种多核并行的网络业务流负载均衡方法及其系统 |
WO2010036656A2 (en) * | 2008-09-29 | 2010-04-01 | Intel Corporation | Directing data units to a core supporting tasks |
CN102549984A (zh) * | 2009-05-05 | 2012-07-04 | 思杰系统有限公司 | 在多核架构中分组引导的系统和方法 |
CN102301664A (zh) * | 2011-07-20 | 2011-12-28 | 华为技术有限公司 | 多核处理器的流分发方法及装置 |
CN105207948A (zh) * | 2014-06-30 | 2015-12-30 | 中兴通讯股份有限公司 | 数据报文的分配方法及装置 |
CN104994036A (zh) * | 2015-06-09 | 2015-10-21 | 北京邮电大学 | 一种多路径传输协议中的动态数据调度方法 |
Non-Patent Citations (1)
Title |
---|
SHIN MURAMATSU,等: ""VSE:Virtual Switch Extension for Adaptive CPU Core Assignment in Softirq"", 《2014 IEEE 6TH INTERNATIONAL CONFERENCE ON CLOUD COMPUTING TECHNOLOGY AND SCIENCE》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114257549A (zh) * | 2021-12-21 | 2022-03-29 | 北京锐安科技有限公司 | 一种流量的转发方法、装置、设备及存储介质 |
CN114257549B (zh) * | 2021-12-21 | 2023-01-10 | 北京锐安科技有限公司 | 一种流量的转发方法、装置、设备及存储介质 |
WO2023116011A1 (zh) * | 2021-12-21 | 2023-06-29 | 北京锐安科技有限公司 | 流量的转发方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106385385B (zh) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hillier et al. | Toward characterizing the optimal allocation of storage space in production line systems with variable processing times | |
CN105103506B (zh) | 用于为云计算网络中的非均匀带宽请求分配带宽的方法和系统 | |
CN110096318A (zh) | 一种基于移动边缘计算的任务卸载方法及装置 | |
US10565022B2 (en) | Systems for parallel processing of datasets with dynamic skew compensation | |
CN109918205A (zh) | 一种边缘设备调度方法、系统、装置及计算机存储介质 | |
CN110162388A (zh) | 一种任务调度方法、系统及终端设备 | |
CN107193652A (zh) | 容器云环境中流数据处理系统的弹性资源调度方法及系统 | |
Whitt | Stochastic comparisons for non-Markov processes | |
Zhang et al. | The real-time scheduling strategy based on traffic and load balancing in storm | |
CN109426484A (zh) | 一种数据排序装置、方法及芯片 | |
Schlag et al. | Scalable edge partitioning | |
CN111597054B (zh) | 一种信息处理方法、系统、电子设备及存储介质 | |
JP2012118669A (ja) | 負荷分散処理システム及び負荷分散処理方法 | |
CN105488134A (zh) | 大数据处理方法及大数据处理装置 | |
CN110058940A (zh) | 一种多线程环境下的数据处理方法及装置 | |
CN106325999A (zh) | 一种分配宿主机资源的方法和装置 | |
CN106487784A (zh) | 一种会话迁移的方法、装置及防火墙 | |
CN104410675A (zh) | 数据传输方法、数据系统及相关装置 | |
CN104303176A (zh) | 查询处理 | |
Korupolu et al. | Robust and probabilistic failure-aware placement | |
CN107204998B (zh) | 处理数据的方法和装置 | |
CN113342526B (zh) | 云计算移动网络资源动态管控方法、系统、终端及介质 | |
CN106385385A (zh) | 资源分配方法及装置 | |
CN104778088A (zh) | 一种基于减少进程间通信开销的并行i/o优化方法与系统 | |
CN107766154A (zh) | 服务器的转换方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |