CN118337733A - 一种带宽补偿方法、装置、设备及计算机可读存储介质 - Google Patents
一种带宽补偿方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN118337733A CN118337733A CN202410760979.6A CN202410760979A CN118337733A CN 118337733 A CN118337733 A CN 118337733A CN 202410760979 A CN202410760979 A CN 202410760979A CN 118337733 A CN118337733 A CN 118337733A
- Authority
- CN
- China
- Prior art keywords
- data
- central processing
- processing unit
- processed
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012545 processing Methods 0.000 claims abstract description 376
- 230000009467 reduction Effects 0.000 claims abstract description 60
- 230000005540 biological transmission Effects 0.000 claims description 56
- 238000004364 calculation method Methods 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000013213 extrapolation Methods 0.000 claims description 11
- 238000001228 spectrum Methods 0.000 claims description 11
- 230000008878 coupling Effects 0.000 claims description 8
- 238000010168 coupling process Methods 0.000 claims description 8
- 238000005859 coupling reaction Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 5
- 238000004883 computer application Methods 0.000 abstract description 2
- 238000007726 management method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 8
- 238000010276 construction Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000011084 recovery Methods 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 108010028984 3-isopropylmalate dehydratase Proteins 0.000 description 1
- 238000012614 Monte-Carlo sampling Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本申请公开了一种带宽补偿方法、装置、设备及计算机可读存储介质,涉及计算机应用技术领域,包括:获取两个中央处理器中各数据通道分别对应的业务状态;根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间;提取两个中央处理器对应的各第一中央处理器影响因子包;结合各所属的预设流量区间和各第一中央处理器影响因子包构建带宽限制与业务关系概率分布模型;当确定两个中央处理器中存在数据通道降带宽概率高于预设值的中央处理器时,利用另一个中央处理器对数据通道降带宽概率高于预设值的中央处理器进行带宽补偿。本申请不影响业务的正常进行,避免了中央处理器降带宽带来的存储设备整体性能降低。
Description
技术领域
本申请涉及计算机应用技术领域,特别是涉及一种带宽补偿方法、装置、设备及计算机可读存储介质。
背景技术
在大数据时代,对存储阵列可靠性、高效性提出更高要求,尤其对存储系统数据备份的性能有了更高的要求。为此存储设备从单路存储升级到双路,即一台存储控制器上包含了两颗中央处理器(Central Processing Unit,CPU),两颗中央处理器进行协同数据处理工作,能够高效的进行数据处理与备份任务,从而提高了数据存储效率。
将两颗低端中央处理器进行并联可以实现数据存储效率、数据备份效率的提升。然而,对于低端的双路存储设备而言,为了节省成本往往采用6核以下的低端中央处理器,中央处理器自身处理工作量高于一定阈值时,就会概率性出现部分数据通道(lane)降带宽的情况,出现降带宽后单颗中央处理器的数据处理性能会出现大幅降低,从而造成该中央处理器的任务处理情况会低于预期,导致第二颗与之并联的中央处理器的备份能力也会大幅降低,进而导致存储设备的整体性能由此下降。
综上所述,如何有效地解决中央处理器自身处理工作量高于一定阈值时,概率性出现部分数据通道降带宽的情况,导致存储设备的整体性能由此下降的问题,是目前本领域技术人员急需解决的问题。
发明内容
本申请的目的是提供一种带宽补偿方法,该方法不影响业务的正常进行,避免了中央处理器降带宽带来的存储设备整体性能降低;本申请的另一目的是提供一种带宽补偿设备、计算机可读存储介质及计算机程序产品。
为解决上述技术问题,本申请提供如下技术方案:
一种带宽补偿方法,包括:
获取两个中央处理器中各数据通道分别对应的业务状态;
根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间;
分别提取两个所述中央处理器对应的各第一中央处理器影响因子包;其中,所述第一中央处理器影响因子包中包括中央处理器的各预设关键参数分别所属的参数区间;
结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子包构建两个所述中央处理器分别对应的带宽限制与业务关系概率分布模型;
当根据两个所述带宽限制与业务关系概率分布模型确定两个所述中央处理器中存在数据通道降带宽概率高于预设值的中央处理器时,将数据通道降带宽概率高于预设值的中央处理器确定为第一中央处理器;
利用两个所述中央处理器中除所述第一中央处理器之外的另一个中央处理器对所述第一中央处理器进行带宽补偿。
在本申请的一种具体实施方式中,根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间,包括:
根据各业务状态分别预测各数据通道在所述未来预设时长内各预设时间段分别对应的数据流量值;
获取各数据流量值分别所属的预设流量区间;
相应的,分别提取两个所述中央处理器对应的各第一中央处理器影响因子包,包括:
分别提取两个所述中央处理器的各中央处理器核在各预设历史时刻的第一中央处理器影响因子包。
在本申请的一种具体实施方式中,结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子包构建两个所述中央处理器分别对应的带宽限制与业务关系概率分布模型,包括:
获取各预设时间段与各预设历史时刻之间的预设时间对应关系;
根据各预设流量区间、各第一中央处理器影响因子包和所述预设时间对应关系,构建各中央处理器核分别对应的各第二中央处理器影响因子包;
按照蒙特卡洛原理分别对各中央处理器核分别对应的各第二中央处理器影响因子包中包含的区间范围进行数据抽样,得到影响因子区间数据集;
根据所述影响因子区间数据集构建各影响因子区间子集;
分别将各影响因子区间子集输入至相应的中央处理器进行参数设定,并统计所述中央处理器的降频次数;
计算所述降频次数和各影响因子区间子集的数量之间的比例关系,分别得到各中央处理器核存在带宽限制的概率;
根据各第二中央处理器影响因子包构建各中央处理器核分别对应的参数矩阵;
根据各存在带宽限制的概率和各参数矩阵确定所述带宽限制与业务关系概率分布模型。
在本申请的一种具体实施方式中,获取两个中央处理器中各数据通道分别对应的业务状态,包括:
通过外插卡向前端发送第一业务提取信号,分别得到两个所述中央处理器中各数据通道在所述未来预设时长的前相同时长内的第一业务量;
获取各数据通道分别对应的当前传输速率;
分别对所述第一业务量和当前传输速率进行商值运算,得到各数据通道分别对应的预计传输时间;
根据所述预计传输时间确定各数据通道分别对应的业务状态。
在本申请的一种具体实施方式中,根据所述预计传输时间确定各数据通道分别对应的业务状态,包括:
将各预计传输时间中大于所述未来预设时长的预计传输时间对应的数据通道确定为状态紧张数据通道;
将各预计传输时间中小于等于所述未来预设时长的预计传输时间对应的数据通道确定为非状态紧张数据通道;
相应的,根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间,包括
通过所述外插卡向所述前端发送第二业务提取信号,得到各数据通道在所述未来预设时长分别对应的第二业务量;
对各第一业务量进行求和计算,得到第一业务总量;
对各第二业务量进行求和计算,得到第二业务总量;
对各对所述第一业务总量和所述第二业务总量进行差值计算,得到业务总量差值;
分别获取两个所述中央处理器的数据通道总数;
对所述业务总量差值和所述数据通道总数进行商值运算,得到数据流量调整值;
分别对各状态紧张数据通道对应的第一业务量与所述数据流量调整值的绝对值进行差值计算,得到各状态紧张数据通道在所述未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间;
分别对各非状态紧张数据通道对应的第二业务量与所述数据流量调整值的绝对值进行和值计算,得到各非状态紧张数据通道在所述未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间。
在本申请的一种具体实施方式中,利用两个所述中央处理器中除所述第一中央处理器之外的另一个中央处理器对所述第一中央处理器进行带宽补偿,包括:
将两个所述中央处理器中除所述第一中央处理器之外的另一个中央处理器确定为第二中央处理器;
向所述第二中央处理器发送告警信号,以使所述第二中央处理器在接收到所述告警信号后开启展频;
获取所述第二中央处理器开启展频后可处理的最高数据量;
根据所述最高数据量对所述第一中央处理器和所述第二中央处理器进行数据量分配。
在本申请的一种具体实施方式中,根据所述最高数据量对所述第一中央处理器和所述第二中央处理器进行数据量分配,包括:
获取所述第一中央处理器的当前处理数据量;
计算所述当前处理数据量与所述最高数据量的比例值;
对所述当前处理数据量与所述比例值进行乘积运算,得到第一待处理数据量;
对所述当前处理数据量和所述第一待处理数据量进行差值计算,得到第二待处理数据量;
将所述第一中央处理器中所述第一待处理数据量的待处理数据分配给所述第一中央处理器,并将所述第一中央处理器中所述第二待处理数据量的待处理数据分配给所述第二中央处理器。
在本申请的一种具体实施方式中,将所述第一中央处理器中所述第一待处理数据量的待处理数据分配给所述第一中央处理器,并将所述第一中央处理器中所述第二待处理数据量的待处理数据分配给所述第二中央处理器,包括:
对所述第一中央处理器中的待处理数据进行重要级分类,得到重要数据集和次重要数据集;
获取所述次重要数据集包含的数据总量;
当所述数据总量小于所述第二待处理数据量时,对所述第二待处理数据量和所述数据总量进行差值计算,得到第一差值数据量;
从所述重要数据集随机获取所述第一差值数据量的待处理数据,得到第一调整数据集;
将所述重要数据集中除所述第一调整数据集之外的剩余待处理数据分配给所述第一中央处理器,并将所述次重要数据集和所述第一调整数据集分配给所述第二中央处理器。
在本申请的一种具体实施方式中,还包括:
当所述数据总量大于所述第二待处理数据量时,从所述次重要数据集中随机获取所述第二待处理数据量的待处理数据,得到第二调整数据集;
将所述次重要数据集中除所述第二调整数据集之外的剩余待处理数据和所述重要数据集分别给所述第一中央处理器,将所述第二调整数据集分配给所述第二中央处理器。
在本申请的一种具体实施方式中,对所述第一中央处理器中的待处理数据进行重要级分类,得到重要数据集和次重要数据集,包括:
从所述第一中央处理器中的待处理数据获取已存储完成的数据;
将所述已存储完成的数据确定为所述次重要数据集,并将所述第一中央处理器中除所述已存储完成的数据之外的剩余待处理数据确定为所述重要数据集。
在本申请的一种具体实施方式中,利用两个所述中央处理器中除所述第一中央处理器之外的另一个中央处理器对所述第一中央处理器进行带宽补偿,包括:
接收两个所述中央处理器分别发送的第一加压信号;
根据所述第一加压信号进行负载扫描,得到通过高速信号链路与两个所述中央处理器相级联的各负载端;
向各负载端发送第二加压信号,以使各所述负载端根据各所述第二加压信号进行读写速率升频。
在本申请的一种具体实施方式中,根据所述第一加压信号进行负载扫描,得到通过高速信号链路与两个所述中央处理器相级联的负载端,包括:
根据所述第一加压信号进行负载扫描,得到通过除两个所述中央处理器之间的耦合链路之外的高速信号链路与两个所述中央处理器相级联的负载端。
在本申请的一种具体实施方式中,在向各负载端发送第二加压信号之后,还包括:
接收两个所述中央处理器返回的应答信号;
根据所述应答信号向两个所述中央处理器和高速链路控制芯片发送补偿信号,以使所述高速链路控制芯片将两个所述中央处理器中相互级联的高速信号链路由切断状态转换为导通状态,并使两个所述中央处理器相互发送协作数据包和应答包进行双路协助。
一种带宽补偿设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如前所述带宽补偿方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述带宽补偿方法的步骤。
一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如前所述带宽补偿方法的步骤。
本申请所提供的带宽补偿方法,获取两个中央处理器中各数据通道分别对应的业务状态;根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间;分别提取两个中央处理器对应的各第一中央处理器影响因子包;其中,第一中央处理器影响因子包中包括中央处理器的各预设关键参数分别所属的参数区间;结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子包构建两个中央处理器分别对应的带宽限制与业务关系概率分布模型;当根据两个带宽限制与业务关系概率分布模型确定两个中央处理器中存在数据通道降带宽概率高于预设值的中央处理器时,将数据通道降带宽概率高于预设值的中央处理器确定为第一中央处理器;利用两个中央处理器中除第一中央处理器之外的另一个中央处理器对第一中央处理器进行带宽补偿。
由上述技术方案可知,通过获取两个中央处理器中各数据通道分别对应的业务状态,根据业务状态预测各数据通道在未来预设时长内的数据流量值,并确定各数据流量值分别对应的预设流量区间。分别提取两个中央处理器的各预设关键参数,得到各第一中央处理器影响因子包。结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子,构建两个中央处理器分别对应的带宽限制与业务关系概率分布模型,从而利用两个中央处理器分别对应的带宽限制与业务关系概率分布模型进行数据通道降带宽预测,得到概率值。当存在数据通道降带宽概率高于预设值的第一中央处理器时,利用另一个中央处理器对第一中央处理器进行带宽补偿。实现了对中央处理器出现带宽降低可能性的提前预测,并通过双路之间的补偿,不影响业务的正常进行,避免了中央处理器降带宽带来的存储设备整体性能降低。
相应的,本申请还提供了与上述带宽补偿方法相对应的带宽补偿设备、计算机可读存储介质和计算机程序产品,具有上述技术效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中第一种带宽补偿方法的实施流程图;
图2为本申请实施例中一种带宽补偿系统的硬件拓扑图;
图3为本申请实施例中第二种带宽补偿方法的实施流程图;
图4为本申请实施例中一种带宽补偿装置的结构框图;
图5为本申请实施例中一种带宽补偿设备的结构框图;
图6为本申请实施例提供的一种带宽补偿设备的具体结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面结合附图和具体实施方式对本申请作进一步的详细说明。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
参见图1,图1为本申请实施例中第一种带宽补偿方法的实施流程图,该方法可以包括以下步骤:
S101:获取两个中央处理器中各数据通道分别对应的业务状态。
参见图2,图2为本申请实施例中一种带宽补偿系统的硬件拓扑图。当前存储控制器中包含的两个中央处理器均包含多个数据通道,基板管理控制器获取两个中央处理器中各数据通道分别对应的业务状态。
例如,通过监控单元监控中央处理器的内部状态以及当前业务状态,监控单元可以采用单片机构成,单片机内部包含了多路输入输出设备,通过一路通用异步收发传输器(Universal Asynchronous Receiver Transmitter,UART)链路来读取中央处理器的状态信息,通过一路串行外设接口(Serial Peripheral Interface,SPI)信号连接到外接输入/输出(Input/Output,IO)卡的电可擦写可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,FLASH)单元中,来读取当前的前端业务状态信息,通过一路集成电路之间的串行通信总线(Inter-Integrated Circuit,I2C)将采集到的信息实时地提供给基板管理控制器。
业务状态可以包括处于紧张状态、处于非紧张状态。
在本申请的一种具体实施方式中,步骤S101可以包括以下步骤:
步骤一:通过外插卡向前端发送第一业务提取信号,分别得到两个中央处理器中各数据通道在未来预设时长的前相同时长内的第一业务量;
步骤二:获取各数据通道分别对应的当前传输速率;
步骤三:分别对第一业务量和当前传输速率进行商值运算,得到各数据通道分别对应的预计传输时间;
步骤四:根据预计传输时间确定各数据通道分别对应的业务状态。
为方便描述,可以将上述四个步骤结合起来进行说明。
在获取数据通道的业务状态时,通过外插卡向前端发送第一业务提取信号,如通过外插卡的中间固件向服务器、交换机等前端发送第一业务提取信号,分别得到两个中央处理器中各数据通道在未来预设时长的前相同时长内的第一业务量,获取各数据通道分别对应的当前传输速率,分别对第一业务量和当前传输速率进行商值运算,得到各数据通道分别对应的预计传输时间,根据预计传输时间确定各数据通道分别对应的业务状态。通过根据数据通道前预设时长内的业务量确定数据通道的业务状态,避免了仅根据数据通道当前时刻的业务情况进行业务状态判断得到判断结果的偶然误差,提高了数据通道业务状态判断结果的准确性。
例如,通过外插卡的中固件向服务器端、交换机端等前端发送第一业务提取信息,若前端仅有一台服务器则发送至服务器端,若前端通过交换机接多台服务器,则通过交换机发送到各服务器端对业务进行综合提取,服务器端收到业务提取信号后,将预设时长内的前端业务信息量变化曲线提供给外插卡端,中央处理器端将每条数据通道的当前传输速率进行汇总,汇总完成后发送给基板管理控制器,利用相应数据通道未来预设时长的前相同时长业务量除以该数据通道的当前传输速率,得到预计传输时间,若预计传输时间大于预设时长,则将该条数据通道判定为状态紧张数据通道,若预计传输时间小于等于预设时长,则将该条数据通道判定为非状态紧张数据通道。
需要说明的,未来预设时长可以根据实际情况进行设定和调整,本申请实施例对此不做限定,如可以设置为未来24小时,则未来预设时长的前相同时长指前24小时。
S102:根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间。
在获取到中央处理器中各数据通道的业务状态之后,根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间。如可以根据数据通道的业务状态,以未来预设时长的前相同时长内该通道的业务量为基础,进行数据流量值的调整,从而得到各数据通道在未来预设时长内的数据流量值。并预先进行流量区间划分,进而确定调整得到的各数据流量值分别所属的预设流量区间。
在本申请的一种具体实施方式中,根据预计传输时间确定各数据通道分别对应的业务状态,可以包括以下步骤:
步骤一:将各预计传输时间中大于未来预设时长的预计传输时间对应的数据通道确定为状态紧张数据通道;
步骤二:将各预计传输时间中小于等于未来预设时长的预计传输时间对应的数据通道确定为非状态紧张数据通道;
相应的,步骤S102可以包括以下步骤:
步骤三:通过外插卡向前端发送第二业务提取信号,得到各数据通道在未来预设时长分别对应的第二业务量;
步骤四:对各第一业务量进行求和计算,得到第一业务总量;
步骤五:对各第二业务量进行求和计算,得到第二业务总量;
步骤六:对各对第一业务总量和第二业务总量进行差值计算,得到业务总量差值;
步骤七:分别获取两个中央处理器的数据通道总数;
步骤八:对业务总量差值和数据通道总数进行商值运算,得到数据流量调整值;
步骤九:分别对各状态紧张数据通道对应的第一业务量与数据流量调整值的绝对值进行差值计算,得到各状态紧张数据通道在未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间;
步骤十:分别对各非状态紧张数据通道对应的第二业务量与数据流量调整值的绝对值进行和值计算,得到各非状态紧张数据通道在未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间。
为方便描述,可以将上述十个步骤结合起来进行说明。
在得到各数据通道分别对应的预计传输时间之后,当预计传输时间大于未来预设时长时,说明该数据通道在未来预设时长的前相同时长内的业务量较多或者当前数据传输速率较低,将各预计传输时间中大于未来预设时长的预计传输时间对应的数据通道确定为状态紧张数据通道。当预计传输时间小于等于未来预设时长时,说明该数据通道在未来预设时长的前相同时长内的业务量较少或者当前数据传输速率较高,将各预计传输时间中小于等于未来预设时长的预计传输时间对应的数据通道确定为非状态紧张数据通道。
在得到各数据通道的业务状态之后,通过外插卡向前端发送第二业务提取信号,得到各数据通道在未来预设时长分别对应的第二业务量。对各第一业务量进行求和计算,得到第一业务总量,即得到中央处理器在未来预设时长的前相同时长内的业务总量。对各第二业务量进行求和计算,得到第二业务总量,即得到中央处理器在未来预设时长内的业务总量。
在得到第一业务总量和第二业务总量之后,对各第一业务总量和第二业务总量进行差值计算,得到业务总量差值,分别获取两个中央处理器的数据通道总数,针对每个中央处理器,对业务总量差值和数据通道总数进行商值运算,得到数据流量调整值。以预设时长为24小时为例,数据流量调整值的计算公式如下:
;
其中,前24小时的业务总量指的是未来24小时的前24小时的业务总量。
在得到数据流量调整值之后,分别对各状态紧张数据通道对应的第一业务量与数据流量调整值的绝对值进行差值计算,得到各状态紧张数据通道在未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间。分别对各非状态紧张数据通道对应的第二业务量与数据流量调整值的绝对值进行和值计算,得到各非状态紧张数据通道在未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间。通过根据中央处理器在未来预设时长的前预设时长的业务量进行数据通道的数据流量调整值的计算,避免了仅根据单条通道的业务量进行计算的偶然性,提高了数据流量调整值计算结果的准确性,进而提高了对数据流量值所属的预设流量区间预测的准确性。
需要说明的是,第一业务提取信号和第二业务提取信号中的第一、第二并没有大小或先后顺序之分,仅是为了对未来预设时长的前相同时长内的业务量和未来预设时长内的业务量的业务提取信号进行区分。
S103:分别提取两个中央处理器对应的各第一中央处理器影响因子包。
其中,第一中央处理器影响因子包中包括中央处理器的各预设关键参数分别所属的参数区间。
分别提取两个中央处理器对应的各第一中央处理器影响因子包,第一中央处理器影响因子包中包括中央处理器的各预设关键参数分别所属的参数区间。各预设关键参数可以包括中央处理器的占用率、频率、温度等。如中央处理器的占用率的区间可以分为A(0~20%)、B(20%~40)等多个区间。
需要说明的是,预设关键参数对应的参数区间的区间范围划分可以根据实际情况进行设定和调整,本申请实施例对此不做限定。
S104:结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子包构建两个中央处理器分别对应的带宽限制与业务关系概率分布模型。
在得到各数据流量值所属的预设流量区间,并提取到中央处理器对应的各第一中央处理器影响因子包之后,结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子包构建两个中央处理器分别对应的带宽限制与业务关系概率分布模型。如当中央处理器包含多个核时,可以预先选取多个历史时刻,针对每个中央处理器核获取各个预设历史时刻分别对应的第一中央处理器影响因子包,并获取各预设历史时刻与未来预设时长内各时间段的对应关系,获取对应的数据流量值所属的预设流量区间,根据各第一中央处理器影响因子包和各数据流量值所属的预设流量区间进行参数矩阵构建,根据多个中央处理器核对应的参数矩阵,构建得到带宽限制与业务关系概率分布模型。
S105:当根据两个带宽限制与业务关系概率分布模型确定两个中央处理器中存在数据通道降带宽概率高于预设值的中央处理器时,将数据通道降带宽概率高于预设值的中央处理器确定为第一中央处理器。
在构建得到带宽限制与业务关系概率分布模型之后,根据带宽限制与业务关系概率分布模型判断相应中央处理器的数据通道降带宽概率是否高于预设值。当根据两个带宽限制与业务关系概率分布模型确定两个中央处理器中存在数据通道降带宽概率高于预设值的中央处理器时,将数据通道降带宽概率高于预设值的中央处理器确定为第一中央处理器。
S106:利用两个中央处理器中除第一中央处理器之外的另一个中央处理器对第一中央处理器进行带宽补偿。
在确定出数据通道降带宽概率高于预设值的第一中央处理器之后,利用两个中央处理器中除第一中央处理器之外的另一个中央处理器对第一中央处理器进行带宽补偿。从而实现了双路间的协助,通过补偿措施保证了当数据通道降带宽概率增至最大前可以及时进行链路带宽补偿,实现降数据通道带宽的恢复。
由上述技术方案可知,通过获取两个中央处理器中各数据通道分别对应的业务状态,根据业务状态预测各数据通道在未来预设时长内的数据流量值,并确定各数据流量值分别对应的预设流量区间。分别提取两个中央处理器的各预设关键参数,得到各第一中央处理器影响因子包。结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子,构建两个中央处理器分别对应的带宽限制与业务关系概率分布模型,从而利用两个中央处理器分别对应的带宽限制与业务关系概率分布模型进行数据通道降带宽预测,得到概率值。当存在数据通道降带宽概率高于预设值的第一中央处理器时,利用另一个中央处理器对第一中央处理器进行带宽补偿。实现了对中央处理器出现带宽降低可能性的提前预测,并通过双路之间的补偿,从而将降的带宽进行补齐,补偿完成后使得中央处理器回到降带宽之前的正常工作状态,不影响业务的正常进行,避免了中央处理器降带宽带来的存储设备整体性能降低。
需要说明的是,基于上述实施例,本申请实施例还提供了相应的改进方案。在后续实施例中涉及与上述实施例中相同步骤或相应步骤之间可相互参考,相应的有益效果也可相互参照,在下文的改进实施例中不再一一赘述。
在本申请的一种具体实施方式中,步骤S106可以包括以下步骤:
步骤一:将两个中央处理器中除第一中央处理器之外的另一个中央处理器确定为第二中央处理器;
步骤二:向第二中央处理器发送告警信号,以使第二中央处理器在接收到告警信号后开启展频;
步骤三:获取第二中央处理器开启展频后可处理的最高数据量;
步骤四:根据最高数据量对第一中央处理器和第二中央处理器进行数据量分配。
为方便描述,可以将上述四个步骤结合起来进行说明。
在确定出数据通道降带宽概率高于预设值的第一中央处理器之后,将两个中央处理器中除第一中央处理器之外的另一个中央处理器确定为第二中央处理器,向第二中央处理器发送告警信号。第二中央处理器接收告警信号,并开启展频。获取第二中央处理器开启展频后可处理的最高数据量,根据最高数据量对第一中央处理器和第二中央处理器进行数据量分配。通过根据两个中央处理器中数据通道降带宽概率较低的中央处理器可处理的最高数据量进行数据量分配,使得数据通道降带宽概率较低的中央处理器的资源得到了充分利用,提升了数据通道降带宽概率较高的中央处理器中数据通道带宽恢复的效率。
在本申请的一种具体实施方式中,根据最高数据量对第一中央处理器和第二中央处理器进行数据量分配,可以包括以下步骤:
步骤一:获取第一中央处理器的当前处理数据量;
步骤二:计算当前处理数据量与最高数据量的比例值;
步骤三:对当前处理数据量与比例值进行乘积运算,得到第一待处理数据量;
步骤四:对当前处理数据量和第一待处理数据量进行差值计算,得到第二待处理数据量;
步骤五:将第一中央处理器中第一待处理数据量的待处理数据分配给第一中央处理器,并将第一中央处理器中第二待处理数据量的待处理数据分配给第二中央处理器。
为方便描述,可以将上述五个步骤结合起来进行说明。
在获取到数据通道降带宽概率较低的第二中央处理器开启展频后可处理的最高数据量之后,获取数据通道降带宽概率较高的第一中央处理器的当前处理数据量,计算当前处理数据量与最高数据量的比例值。对当前处理数据量与比例值进行乘积运算,得到第一待处理数据量,对当前处理数据量和第一待处理数据量进行差值计算,得到第二待处理数据量,将第一中央处理器中第一待处理数据量的待处理数据分配给第一中央处理器,并将第一中央处理器中第二待处理数据量的待处理数据分配给第二中央处理器。通过按照第一中央处理器的当前处理数据量与第二中央处理器可处理的最高数据量的比例值进行数据分配,使得在充分利用第二中央处理器的资源的同时,又避免了数据转发量过大,提升了数据分配的合理性。
在本申请的一种具体实施方式中,将第一中央处理器中第一待处理数据量的待处理数据分配给第一中央处理器,并将第一中央处理器中第二待处理数据量的待处理数据分配给第二中央处理器,可以包括以下步骤:
步骤一:对第一中央处理器中的待处理数据进行重要级分类,得到重要数据集和次重要数据集;
步骤二:获取次重要数据集包含的数据总量;
步骤三:当数据总量小于第二待处理数据量时,对第二待处理数据量和数据总量进行差值计算,得到第一差值数据量;
步骤四:从重要数据集随机获取第一差值数据量的待处理数据,得到第一调整数据集;
步骤五:将重要数据集中除第一调整数据集之外的剩余待处理数据分配给第一中央处理器,并将次重要数据集和第一调整数据集分配给第二中央处理器。
为方便描述,可以将上述五个步骤结合起来进行说明。
在按照第一中央处理器的当前处理数据量与第二中央处理器可处理的最高数据量的比例值,对第一中央处理器和第二中央处理器数据分配完成之后,对第一中央处理器中的待处理数据进行重要级分类,得到重要数据集和次重要数据集。获取次重要数据集包含的数据总量,将次重要数据集包含的数据总量和需要分配给第二中央处理器的第二待处理数据量进行对比,当确定数据总量小于第二待处理数据量时,说明除了将次重要数据集分配给第二中央处理器之外,还需要将重要数据集中的部分数据分配给第二中央处理器。对第二待处理数据量和数据总量进行差值计算,得到第一差值数据量。从重要数据集随机获取第一差值数据量的待处理数据,得到第一调整数据集。将重要数据集中除第一调整数据集之外的剩余待处理数据分配给第一中央处理器,并将次重要数据集和第一调整数据集分配给第二中央处理器。通过将次重要数据集分配给第二中央处理器,降低了重要数据在迁移过程中数据丢失的概率,提升了重要数据的安全性。
在本申请的一种具体实施方式中,该方法还可以包括以下步骤:
步骤一:当数据总量大于第二待处理数据量时,从次重要数据集中随机获取第二待处理数据量的待处理数据,得到第二调整数据集;
步骤二:将次重要数据集中除第二调整数据集之外的剩余待处理数据和重要数据集分别给第一中央处理器,将第二调整数据集分配给第二中央处理器。
为方便描述,可以将上述两个步骤结合起来进行说明。
通过将次重要数据集包含的数据总量和需要分配给第二中央处理器的第二待处理数据量进行对比,当确定数据总量大于第二待处理数据量时,说明次重要数据集的数据量比较大,将第二待处理数据量的次重要数据分配给第二中央处理器之后还会存在剩余的次重要数据。从次重要数据集中随机获取第二待处理数据量的待处理数据,得到第二调整数据集,将次重要数据集中除第二调整数据集之外的剩余待处理数据和重要数据集分别给第一中央处理器,将第二调整数据集分配给第二中央处理器。通过仅将次重要数据分配给第二中央处理器,避免了对重要数据的转发,提升了重要数据的安全性。
在本申请的一种具体实施方式中,对第一中央处理器中的待处理数据进行重要级分类,得到重要数据集和次重要数据集,可以包括以下步骤:
步骤一:从第一中央处理器中的待处理数据获取已存储完成的数据;
步骤二:将已存储完成的数据确定为次重要数据集,并将第一中央处理器中除已存储完成的数据之外的剩余待处理数据确定为重要数据集。
为方便描述,可以将上述两个步骤结合起来进行说明。
在对第一中央处理器中的待处理数据进行重要级分类时,从第一中央处理器中的待处理数据获取已存储完成的数据。已存储完成的数据仅要求在存储设备上进行备份,即这部分数据当前丢失可找回。将已存储完成的数据确定为次重要数据集,并将第一中央处理器中除已存储完成的数据之外的剩余待处理数据确定为重要数据集。通过在获取到已存储完成的数据后,对这部分数据进行标记,将其确定为次重要数据集,从而在将第一中央处理器中的待处理数据向第二中央处理器转移的过程中,优先将上述标记完成的数据进行转移,避免了数据丢失,提升了数据完整性和数据安全性。
在本申请的一种具体实施方式中,步骤S106可以包括以下步骤:
步骤一:接收两个中央处理器分别发送的第一加压信号;
步骤二:根据第一加压信号进行负载扫描,得到通过高速信号链路与两个中央处理器相级联的各负载端;
步骤三:向各负载端发送第二加压信号,以使各负载端根据各第二加压信号进行读写速率升频。
为方便描述,可以将上述三个步骤结合起来进行说明。
在确定出数据通道降带宽概率高于预设值的第一中央处理器之后,通过两个中央处理器向基板管理控制器发送第一加压信号。基板管理控制器接收两个中央处理器分别发送的第一加压信号,并根据第一加压信号进行负载扫描,得到通过高速信号链路与两个中央处理器相级联的各负载端,各负载端可以包括服务器、硬盘、系统盘单元等终端负载,还可以包括外插卡、外设组件互连扩展总线(Peripheral Component InterconnectExpress,PCIE)、网络交换机(SWITCH)等次终端单元,向各负载端发送第二加压信号。各负载端根据各第二加压信号进行读写速率升频,从而加大当前数据的读写速率。
在本申请的一种具体实施方式中,根据第一加压信号进行负载扫描,得到通过高速信号链路与两个中央处理器相级联的负载端,可以包括以下步骤:
根据第一加压信号进行负载扫描,得到通过除两个中央处理器之间的耦合链路之外的高速信号链路与两个中央处理器相级联的负载端。
根据第一加压信号进行负载扫描,得到通过除两个中央处理器之间的耦合链路之外的高速信号链路与两个中央处理器相级联的负载端。在中央处理器总处理能力一定的情况下,向通过耦合链路之外的高速信号链路与两个中央处理器相级联的负载端进行加压操作,较大地降低了耦合链路上的数据压力。
在本申请的一种具体实施方式中,在向各负载端发送第二加压信号之后,该方法还可以包括以下步骤:
步骤一:接收两个中央处理器返回的应答信号;
步骤二:根据应答信号向两个中央处理器和高速链路控制芯片发送补偿信号,以使高速链路控制芯片将两个中央处理器中相互级联的高速信号链路由切断状态转换为导通状态,并使两个中央处理器相互发送协作数据包和应答包进行双路协助。
为方便描述,可以将上述两个步骤结合起来进行说明。
如图2所示,预先设置高速链路控制芯片对两个中央处理器中容易出现概率性降带宽的高速链路进行通断控制。在向各负载端发送第二加压信号之后,两个中央处理器向基板管理控制器反馈应答信号,基板管理控制器接收两个中央处理器返回的应答信号,根据应答信号向两个中央处理器和高速链路控制芯片发送补偿信号。高速链路控制芯片将两个中央处理器中相互级联的高速信号链路由切断状态转换为导通状态,并且两个中央处理器相互发送协作数据包和应答包进行双路协助。通过软硬件配合实现对中央处理器的数据通道概率性降带宽的修复,从而保证了当数据通道降带宽概率增至最大前可以及时进行链路带宽补偿,实现数据通道降带宽的恢复。
参见图3,图3为本申请实施例中第二种带宽补偿方法的实施流程图,该方法可以包括以下步骤:
S301:获取两个中央处理器中各数据通道分别对应的业务状态。
S302:根据各业务状态分别预测各数据通道在未来预设时长内各预设时间段分别对应的数据流量值。
在获取到各数据通道分别对应的业务状态之后,根据各业务状态分别预测各数据通道在未来预设时长内各预设时间段分别对应的数据流量值。实现了对未来预设时长内数据流量值的分时间段预测。
S303:获取各数据流量值分别所属的预设流量区间。
在预测到各数据通道在未来预设时长内各预设时间段分别对应的数据流量值之后,获取各数据流量值分别所属的预设流量区间。
S304:分别提取两个中央处理器的各中央处理器核在各预设历史时刻的第一中央处理器影响因子包。
其中,第一中央处理器影响因子包中包括中央处理器的各预设关键参数分别所属的参数区间。
中央处理器可能包括多个中央处理器核,如包括6个中央处理器核,每个中央处理器核均对用与各自的预设关键参数,各类预设关键参数构成第一中央处理器影响因子包,预先选取各预设历史时刻,分别提取两个中央处理器的各中央处理器核在各预设历史时刻的第一中央处理器影响因子包。通过按照预设历史时刻进行影响因子包提取,避免了对过量参数的获取。
S305:获取各预设时间段与各预设历史时刻之间的预设时间对应关系。
预先设置各预设时间段与各预设历史时刻之间的时间对应关系,在提取到各中央处理器核在各预设历史时刻的第一中央处理器影响因子包之后,获取各预设时间段与各预设历史时刻之间的预设时间对应关系。
S306:根据各预设流量区间、各第一中央处理器影响因子包和预设时间对应关系,构建各中央处理器核分别对应的各第二中央处理器影响因子包。
在获取到各预设时间对应关系之后,根据多个数据通道分别对应的数据流量值所属的预设流量区间、各第一中央处理器影响因子包和预设时间对应关系,构建各中央处理器核分别对应的各第二中央处理器影响因子包。
S307:按照蒙特卡洛原理分别对各中央处理器核分别对应的各第二中央处理器影响因子包中包含的区间范围进行数据抽样,得到影响因子区间数据集。
按照蒙特卡洛原理分别对各中央处理器核分别对应的各第二中央处理器影响因子包中包含的区间范围进行数据抽样,得到影响因子区间数据集。
S308:根据影响因子区间数据集构建各影响因子区间子集。
在得到影响因子区间数据集之后,根据影响因子区间数据集构建各影响因子区间子集。每个影响因子区间子集包括分配给当前中央处理器核的中央处理器的占用率、频率、温度,还包括各个数据通道预测得到的数据流量值所属的预设流量区间。
S309:分别将各影响因子区间子集输入至相应的中央处理器进行参数设定,并统计中央处理器的降频次数。
在构建得到各影响因子区间子集之后,分别将各影响因子区间子集输入至相应的中央处理器进行参数设定,并统计中央处理器的降频次数。
S310:计算降频次数和各影响因子区间子集的数量之间的比例关系,分别得到各中央处理器核存在带宽限制的概率。
在统计得到中央处理器的降频次数之后,计算降频次数和各影响因子区间子集的数量之间的比例关系,分别得到各中央处理器核存在带宽限制的概率。
S311:根据各第二中央处理器影响因子包构建各中央处理器核分别对应的参数矩阵。
在得到各中央处理器核存在带宽限制的概率之后,根据各第二中央处理器影响因子包构建各中央处理器核分别对应的参数矩阵。
S312:根据各存在带宽限制的概率和各参数矩阵确定带宽限制与业务关系概率分布模型。
本申请实施例所提供的基板管理控制器除了包含传统的采集服务器上所有硬件、操作系统层面的信息并交互管理外,还需要执行中央处理器建模算法基板管理控制器内部包含用于设备生命周期管理的小系统,基板管理控制器在链路上还与双路中央处理器相级联,级联链路以智能平台管理接口(Intelligent Platform Management Interface,IPMI)网络链路为主,网络层的信息能够便于基板管理控制器与中央处理器之间的双向解析,有助于算法执行,当基板管理控制器自身建模能力不足时对控中央处理器将分担中央处理器的运算压力,并完成建模。
在得到各中央处理器核分别对应的参数矩阵之后,根据各存在带宽限制的概率和各参数矩阵确定带宽限制与业务关系概率分布模型。
以其中一个中央处理器核对应的参数矩阵为基准,分别列出其他中央处理器核与第一个核矩阵的协方差矩阵,逐级增加核数到最大核数后,每增加一个中央处理器核,则在原有模型基础上增加协方差矩阵因子,通过协方差矩阵近似表示出多核之间的耦合关系。
每个中央处理器核对应的参数矩阵可以通过以下公式表示:
;
其中,表示中央处理器中第n个核的影响因素矩阵,矩阵中第一列为温度信息,第二列为CPU占用率信息,第三列为频率信息,第四列为预测得到的数据流量值所属的预设流量区间,第五列为其他参数信息。每一列一般取四个区间用于计算,当然也可以取其他数量的区间,每一行中的区间是对应的,如温度1的区间、占用率1的区间、频率1的区间、数据流量值所属的预设流量1是对应的区间,并且每一行中数据流量值所属的预设流量的个数与中央处理器中数据通道的个数相同。
参数矩阵之间的协方差矩阵可以通过以下公式表示:
;
其中,表示影响因素构建的协方差矩阵,反映第n核的影响因素与第n-1核的影响因素之间的关系,表示协方差矩阵的子集。
可以通过以下公式计算出现带宽限制的概率:
;
其中,表示在用n核CPU的情况下,带宽限制出现的概率,其中表示通过蒙特卡洛抽样得到的概率。
S313:当根据两个带宽限制与业务关系概率分布模型确定两个中央处理器中存在数据通道降带宽概率高于预设值的中央处理器时,将数据通道降带宽概率高于预设值的中央处理器确定为第一中央处理器。
S314:利用两个中央处理器中除第一中央处理器之外的另一个中央处理器对第一中央处理器进行带宽补偿。
通过带宽限制与业务关系概率分布模型实现了对中央处理器出现带宽降低可能性的提前预测,并通过双路之间的补偿,从而将降的带宽进行补齐,补偿完成后使得中央处理器回到降带宽之前的正常工作状态,不影响业务的正常进行,避免了中央处理器降带宽带来的存储设备整体性能降低。
相应于上面的方法实施例,本申请还提供了一种带宽补偿装置,下文描述的带宽补偿装置与上文描述的带宽补偿方法可相互对应参照。
参见图4,图4为本申请实施例中一种带宽补偿装置的结构框图,该装置可以包括:
业务状态获取模块41,用于获取两个中央处理器中各数据通道分别对应的业务状态;
流量区间预测模块42,用于根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间;
第一影响因子包提取模块43,用于分别提取两个中央处理器对应的各第一中央处理器影响因子包;其中,第一中央处理器影响因子包中包括中央处理器的各预设关键参数分别所属的参数区间;
模型构建模块44,用于结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子包构建两个中央处理器分别对应的带宽限制与业务关系概率分布模型;
第一中央处理器确定模块45,用于当根据两个带宽限制与业务关系概率分布模型确定两个中央处理器中存在数据通道降带宽概率高于预设值的中央处理器时,将数据通道降带宽概率高于预设值的中央处理器确定为第一中央处理器;
带宽补偿模块46,用于利用两个中央处理器中除第一中央处理器之外的另一个中央处理器对第一中央处理器进行带宽补偿。
由上述技术方案可知,通过获取两个中央处理器中各数据通道分别对应的业务状态,根据业务状态预测各数据通道在未来预设时长内的数据流量值,并确定各数据流量值分别对应的预设流量区间。分别提取两个中央处理器的各预设关键参数,得到各第一中央处理器影响因子包。结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子,构建两个中央处理器分别对应的带宽限制与业务关系概率分布模型,从而利用两个中央处理器分别对应的带宽限制与业务关系概率分布模型进行数据通道降带宽预测,得到概率值。当存在数据通道降带宽概率高于预设值的第一中央处理器时,利用另一个中央处理器对第一中央处理器进行带宽补偿。实现了对中央处理器出现带宽降低可能性的提前预测,并通过双路之间的补偿,不影响业务的正常进行,避免了中央处理器降带宽带来的存储设备整体性能降低。
在本申请的一种具体实施方式中,流量区间预测模块42包括:
流量值预测子模块,用于根据各业务状态分别预测各数据通道在未来预设时长内各预设时间段分别对应的数据流量值;
流量区间获取子模块,用于获取各数据流量值分别所属的预设流量区间;
第一影响因子包提取模块,具体用于分别提取两个中央处理器的各中央处理器核在各预设历史时刻的第一中央处理器影响因子包。
在本申请的一种具体实施方式中,模型构建模块44包括:
时间对应关系获取子模块,用于获取各预设时间段与各预设历史时刻之间的预设时间对应关系;
第二影响因子包构建子模块,用于根据各预设流量区间、各第一中央处理器影响因子包和预设时间对应关系,构建各中央处理器核分别对应的各第二中央处理器影响因子包;
影响因子区间数据集获得子模块,用于按照蒙特卡洛原理分别对各中央处理器核分别对应的各第二中央处理器影响因子包中包含的区间范围进行数据抽样,得到影响因子区间数据集;
影响因子区间子集构建子模块,用于根据影响因子区间数据集构建各影响因子区间子集;
降频次数统计子模块,用于分别将各影响因子区间子集输入至相应的中央处理器进行参数设定,并统计中央处理器的降频次数;
概率获得子模块,用于计算降频次数和各影响因子区间子集的数量之间的比例关系,分别得到各中央处理器核存在带宽限制的概率;
参数矩阵构建子模块,用于根据各第二中央处理器影响因子包构建各中央处理器核分别对应的参数矩阵;
模型构建子模块,用于根据各存在带宽限制的概率和各参数矩阵确定带宽限制与业务关系概率分布模型。
在本申请的一种具体实施方式中,业务状态获取模块41包括:
第一业务量获得子模块,用于通过外插卡向前端发送第一业务提取信号,分别得到两个中央处理器中各数据通道在未来预设时长的前相同时长内的第一业务量;
当前传输速率获取子模块,用于获取各数据通道分别对应的当前传输速率;
预计传输时间获得子模块,用于分别对第一业务量和当前传输速率进行商值运算,得到各数据通道分别对应的预计传输时间;
业务状态确定子模块,用于根据预计传输时间确定各数据通道分别对应的业务状态。
在本申请的一种具体实施方式中,业务状态确定子模块包括:
状态紧张通道确定单元,用于将各预计传输时间中大于未来预设时长的预计传输时间对应的数据通道确定为状态紧张数据通道;
非状态紧张通道确定单元,用于将各预计传输时间中小于等于未来预设时长的预计传输时间对应的数据通道确定为非状态紧张数据通道;
流量区间预测模块42包括:
第二业务量获得子模块,用于通过外插卡向前端发送第二业务提取信号,得到各数据通道在未来预设时长分别对应的第二业务量;
第一业务总量计算子模块,用于对各第一业务量进行求和计算,得到第一业务总量;
第二业务总量计算子模块,用于对各第二业务量进行求和计算,得到第二业务总量;
业务总量差值获得子模块,用于对各对第一业务总量和第二业务总量进行差值计算,得到业务总量差值;
数据通道总数获取子模块,用于分别获取两个中央处理器的数据通道总数;
流量调整值获得子模块,用于对业务总量差值和数据通道总数进行商值运算,得到数据流量调整值;
第一流量区间确定子模块,用于分别对各状态紧张数据通道对应的第一业务量与数据流量调整值的绝对值进行差值计算,得到各状态紧张数据通道在未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间;
第二流量区间确定子模块,用于分别对各非状态紧张数据通道对应的第二业务量与数据流量调整值的绝对值进行和值计算,得到各非状态紧张数据通道在未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间。
在本申请的一种具体实施方式中,带宽补偿模块46包括:
第二中央处理器确定子模块,用于将两个中央处理器中除第一中央处理器之外的另一个中央处理器确定为第二中央处理器;
展频开启子模块,用于向第二中央处理器发送告警信号,以使第二中央处理器在接收到告警信号后开启展频;
最高数据量获取子模块,用于获取第二中央处理器开启展频后可处理的最高数据量;
数据量分配子模块,用于根据最高数据量对第一中央处理器和第二中央处理器进行数据量分配。
在本申请的一种具体实施方式中,数据量分配子模块包括:
当前处理数据量获取单元,用于获取第一中央处理器的当前处理数据量;
比例值计算单元,用于计算当前处理数据量与最高数据量的比例值;
第一待处理数据量获得单元,用于对当前处理数据量与比例值进行乘积运算,得到第一待处理数据量;
第二待处理数据量获得单元,用于对当前处理数据量和第一待处理数据量进行差值计算,得到第二待处理数据量;
数据量分配单元,用于将第一中央处理器中第一待处理数据量的待处理数据分配给第一中央处理器,并将第一中央处理器中第二待处理数据量的待处理数据分配给第二中央处理器。
在本申请的一种具体实施方式中,数据量分配单元包括:
重要级分类子单元,用于对第一中央处理器中的待处理数据进行重要级分类,得到重要数据集和次重要数据集;
数据总量获取子单元,用于获取次重要数据集包含的数据总量;
第一差值数据量获得子单元,用于当数据总量小于第二待处理数据量时,对第二待处理数据量和数据总量进行差值计算,得到第一差值数据量;
第一调整数据集获得子单元,用于从重要数据集随机获取第一差值数据量的待处理数据,得到第一调整数据集;
第一数据量分配子单元,用于将重要数据集中除第一调整数据集之外的剩余待处理数据分配给第一中央处理器,并将次重要数据集和第一调整数据集分配给第二中央处理器。
在本申请的一种具体实施方式中,数据量分配单元还可以包括:
第二调整数据集获得子单元,用于当数据总量大于第二待处理数据量时,从次重要数据集中随机获取第二待处理数据量的待处理数据,得到第二调整数据集;
第二数据量分配子单元,用于将次重要数据集中除第二调整数据集之外的剩余待处理数据和重要数据集分别给第一中央处理器,将第二调整数据集分配给第二中央处理器。
在本申请的一种具体实施方式中,重要级分类子单元,具体用于从第一中央处理器中的待处理数据获取已存储完成的数据;将已存储完成的数据确定为次重要数据集,并将第一中央处理器中除已存储完成的数据之外的剩余待处理数据确定为重要数据集。
在本申请的一种具体实施方式中,带宽补偿模块46包括:
第一加压信号接收子模块,用于接收两个中央处理器分别发送的第一加压信号;
负载端获得子模块,用于根据第一加压信号进行负载扫描,得到通过高速信号链路与两个中央处理器相级联的各负载端;
第二加压信号发送子模块,用于向各负载端发送第二加压信号,以使各负载端根据各第二加压信号进行读写速率升频。
在本申请的一种具体实施方式中,负载端获得子模块,具体用于根据第一加压信号进行负载扫描,得到通过除两个中央处理器之间的耦合链路之外的高速信号链路与两个中央处理器相级联的负载端。
在本申请的一种具体实施方式中,该装置还可以包括:
应答信号接收模块,用于在向各负载端发送第二加压信号之后,接收两个中央处理器返回的应答信号;
双路协助模块,用于根据应答信号向两个中央处理器和高速链路控制芯片发送补偿信号,以使高速链路控制芯片将两个中央处理器中相互级联的高速信号链路由切断状态转换为导通状态,并使两个中央处理器相互发送协作数据包和应答包进行双路协助。
相应于上面的方法实施例,参见图5,图5为本申请所提供的带宽补偿设备的示意图,该设备可以包括:
存储器332,用于存储计算机程序;
处理器322,用于执行计算机程序时实现上述方法实施例的带宽补偿方法的步骤。
具体的,请参考图6,图6为本实施例提供的一种带宽补偿设备的具体结构示意图,该带宽补偿设备可因配置或性能不同而产生比较大的差异,可以包括处理器(centralprocessing units,CPU)322(例如,一个或一个以上处理器)和存储器332,存储器332存储有一个或一个以上的计算机程序342或数据344。其中,存储器332可以是短暂存储或持久存储。存储在存储器332的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对数据处理设备中的一系列指令操作。更进一步地,处理器322可以设置为与存储器332通信,在带宽补偿设备301上执行存储器332中的一系列指令操作。
带宽补偿设备301还可以包括一个或一个以上电源326,一个或一个以上有线或无线网络接口350,一个或一个以上输入输出接口358,和/或,一个或一个以上操作系统341。
上文所描述的带宽补偿方法中的步骤可以由带宽补偿设备的结构实现。
相应于上面的方法实施例,本申请还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现如下步骤:
获取两个中央处理器中各数据通道分别对应的业务状态;根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间;分别提取两个中央处理器对应的各第一中央处理器影响因子包;其中,第一中央处理器影响因子包中包括中央处理器的各预设关键参数分别所属的参数区间;结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子包构建两个中央处理器分别对应的带宽限制与业务关系概率分布模型;当根据两个带宽限制与业务关系概率分布模型确定两个中央处理器中存在数据通道降带宽概率高于预设值的中央处理器时,将数据通道降带宽概率高于预设值的中央处理器确定为第一中央处理器;利用两个中央处理器中除第一中央处理器之外的另一个中央处理器对第一中央处理器进行带宽补偿。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
对于本申请提供的计算机可读存储介质的介绍请参照上述方法实施例,本申请在此不做赘述。
相应于上面的方法实施例,本申请还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如前带宽补偿方法的步骤。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置、设备及计算机可读存储介质而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的技术方案及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请的保护范围内。
Claims (16)
1.一种带宽补偿方法,其特征在于,包括:
获取两个中央处理器中各数据通道分别对应的业务状态;
根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间;
分别提取两个所述中央处理器对应的各第一中央处理器影响因子包;其中,所述第一中央处理器影响因子包中包括中央处理器的各预设关键参数分别所属的参数区间;
结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子包构建两个所述中央处理器分别对应的带宽限制与业务关系概率分布模型;
当根据两个所述带宽限制与业务关系概率分布模型确定两个所述中央处理器中存在数据通道降带宽概率高于预设值的中央处理器时,将数据通道降带宽概率高于预设值的中央处理器确定为第一中央处理器;
利用两个所述中央处理器中除所述第一中央处理器之外的另一个中央处理器对所述第一中央处理器进行带宽补偿。
2.根据权利要求1所述的带宽补偿方法,其特征在于,根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间,包括:
根据各业务状态分别预测各数据通道在所述未来预设时长内各预设时间段分别对应的数据流量值;
获取各数据流量值分别所属的预设流量区间;
相应的,分别提取两个所述中央处理器对应的各第一中央处理器影响因子包,包括:
分别提取两个所述中央处理器的各中央处理器核在各预设历史时刻的第一中央处理器影响因子包。
3.根据权利要求2所述的带宽补偿方法,其特征在于,结合各数据流量值所属的预设流量区间和各第一中央处理器影响因子包构建两个所述中央处理器分别对应的带宽限制与业务关系概率分布模型,包括:
获取各预设时间段与各预设历史时刻之间的预设时间对应关系;
根据各预设流量区间、各第一中央处理器影响因子包和所述预设时间对应关系,构建各中央处理器核分别对应的各第二中央处理器影响因子包;
按照蒙特卡洛原理分别对各中央处理器核分别对应的各第二中央处理器影响因子包中包含的区间范围进行数据抽样,得到影响因子区间数据集;
根据所述影响因子区间数据集构建各影响因子区间子集;
分别将各影响因子区间子集输入至相应的中央处理器进行参数设定,并统计所述中央处理器的降频次数;
计算所述降频次数和各影响因子区间子集的数量之间的比例关系,分别得到各中央处理器核存在带宽限制的概率;
根据各第二中央处理器影响因子包构建各中央处理器核分别对应的参数矩阵;
根据各存在带宽限制的概率和各参数矩阵确定所述带宽限制与业务关系概率分布模型。
4.根据权利要求1所述的带宽补偿方法,其特征在于,获取两个中央处理器中各数据通道分别对应的业务状态,包括:
通过外插卡向前端发送第一业务提取信号,分别得到两个所述中央处理器中各数据通道在所述未来预设时长的前相同时长内的第一业务量;
获取各数据通道分别对应的当前传输速率;
分别对所述第一业务量和当前传输速率进行商值运算,得到各数据通道分别对应的预计传输时间;
根据所述预计传输时间确定各数据通道分别对应的业务状态。
5.根据权利要求4所述的带宽补偿方法,其特征在于,根据所述预计传输时间确定各数据通道分别对应的业务状态,包括:
将各预计传输时间中大于所述未来预设时长的预计传输时间对应的数据通道确定为状态紧张数据通道;
将各预计传输时间中小于等于所述未来预设时长的预计传输时间对应的数据通道确定为非状态紧张数据通道;
相应的,根据各业务状态分别预测各数据通道在未来预设时长内的数据流量值所属的预设流量区间,包括
通过所述外插卡向所述前端发送第二业务提取信号,得到各数据通道在所述未来预设时长分别对应的第二业务量;
对各第一业务量进行求和计算,得到第一业务总量;
对各第二业务量进行求和计算,得到第二业务总量;
对各对所述第一业务总量和所述第二业务总量进行差值计算,得到业务总量差值;
分别获取两个所述中央处理器的数据通道总数;
对所述业务总量差值和所述数据通道总数进行商值运算,得到数据流量调整值;
分别对各状态紧张数据通道对应的第一业务量与所述数据流量调整值的绝对值进行差值计算,得到各状态紧张数据通道在所述未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间;
分别对各非状态紧张数据通道对应的第二业务量与所述数据流量调整值的绝对值进行和值计算,得到各非状态紧张数据通道在所述未来预设时长内的数据流量值,并确定各数据流量值所属的预设流量区间。
6.根据权利要求1所述的带宽补偿方法,其特征在于,利用两个所述中央处理器中除所述第一中央处理器之外的另一个中央处理器对所述第一中央处理器进行带宽补偿,包括:
将两个所述中央处理器中除所述第一中央处理器之外的另一个中央处理器确定为第二中央处理器;
向所述第二中央处理器发送告警信号,以使所述第二中央处理器在接收到所述告警信号后开启展频;
获取所述第二中央处理器开启展频后可处理的最高数据量;
根据所述最高数据量对所述第一中央处理器和所述第二中央处理器进行数据量分配。
7.根据权利要求6所述的带宽补偿方法,其特征在于,根据所述最高数据量对所述第一中央处理器和所述第二中央处理器进行数据量分配,包括:
获取所述第一中央处理器的当前处理数据量;
计算所述当前处理数据量与所述最高数据量的比例值;
对所述当前处理数据量与所述比例值进行乘积运算,得到第一待处理数据量;
对所述当前处理数据量和所述第一待处理数据量进行差值计算,得到第二待处理数据量;
将所述第一中央处理器中所述第一待处理数据量的待处理数据分配给所述第一中央处理器,并将所述第一中央处理器中所述第二待处理数据量的待处理数据分配给所述第二中央处理器。
8.根据权利要求7所述的带宽补偿方法,其特征在于,将所述第一中央处理器中所述第一待处理数据量的待处理数据分配给所述第一中央处理器,并将所述第一中央处理器中所述第二待处理数据量的待处理数据分配给所述第二中央处理器,包括:
对所述第一中央处理器中的待处理数据进行重要级分类,得到重要数据集和次重要数据集;
获取所述次重要数据集包含的数据总量;
当所述数据总量小于所述第二待处理数据量时,对所述第二待处理数据量和所述数据总量进行差值计算,得到第一差值数据量;
从所述重要数据集随机获取所述第一差值数据量的待处理数据,得到第一调整数据集;
将所述重要数据集中除所述第一调整数据集之外的剩余待处理数据分配给所述第一中央处理器,并将所述次重要数据集和所述第一调整数据集分配给所述第二中央处理器。
9.根据权利要求8所述的带宽补偿方法,其特征在于,还包括:
当所述数据总量大于所述第二待处理数据量时,从所述次重要数据集中随机获取所述第二待处理数据量的待处理数据,得到第二调整数据集;
将所述次重要数据集中除所述第二调整数据集之外的剩余待处理数据和所述重要数据集分别给所述第一中央处理器,将所述第二调整数据集分配给所述第二中央处理器。
10.根据权利要求8或9所述的带宽补偿方法,其特征在于,对所述第一中央处理器中的待处理数据进行重要级分类,得到重要数据集和次重要数据集,包括:
从所述第一中央处理器中的待处理数据获取已存储完成的数据;
将所述已存储完成的数据确定为所述次重要数据集,并将所述第一中央处理器中除所述已存储完成的数据之外的剩余待处理数据确定为所述重要数据集。
11.根据权利要求1所述的带宽补偿方法,其特征在于,利用两个所述中央处理器中除所述第一中央处理器之外的另一个中央处理器对所述第一中央处理器进行带宽补偿,包括:
接收两个所述中央处理器分别发送的第一加压信号;
根据所述第一加压信号进行负载扫描,得到通过高速信号链路与两个所述中央处理器相级联的各负载端;
向各负载端发送第二加压信号,以使各所述负载端根据各所述第二加压信号进行读写速率升频。
12.根据权利要求11所述的带宽补偿方法,其特征在于,根据所述第一加压信号进行负载扫描,得到通过高速信号链路与两个所述中央处理器相级联的负载端,包括:
根据所述第一加压信号进行负载扫描,得到通过除两个所述中央处理器之间的耦合链路之外的高速信号链路与两个所述中央处理器相级联的负载端。
13.根据权利要求11所述的带宽补偿方法,其特征在于,在向各负载端发送第二加压信号之后,还包括:
接收两个所述中央处理器返回的应答信号;
根据所述应答信号向两个所述中央处理器和高速链路控制芯片发送补偿信号,以使所述高速链路控制芯片将两个所述中央处理器中相互级联的高速信号链路由切断状态转换为导通状态,并使两个所述中央处理器相互发送协作数据包和应答包进行双路协助。
14.一种带宽补偿设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至13任一项所述带宽补偿方法的步骤。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至13任一项所述带宽补偿方法的步骤。
16.一种计算机程序产品,其特征在于,包括计算机程序,该计算机程序被处理器执行时实现如权利要求1至13任一项所述带宽补偿方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410760979.6A CN118337733B (zh) | 2024-06-13 | 2024-06-13 | 一种带宽补偿方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410760979.6A CN118337733B (zh) | 2024-06-13 | 2024-06-13 | 一种带宽补偿方法、装置、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118337733A true CN118337733A (zh) | 2024-07-12 |
CN118337733B CN118337733B (zh) | 2024-09-20 |
Family
ID=91777382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410760979.6A Active CN118337733B (zh) | 2024-06-13 | 2024-06-13 | 一种带宽补偿方法、装置、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118337733B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1369074A (zh) * | 1999-08-27 | 2002-09-11 | 国际商业机器公司 | 网络处理器、存储器组织和方法 |
CN101123587A (zh) * | 2007-09-13 | 2008-02-13 | 杭州华三通信技术有限公司 | 交换机业务流的流量控制方法和装置 |
CN101772083A (zh) * | 2008-12-30 | 2010-07-07 | 华为技术有限公司 | 一种带宽分配方法、装置和系统 |
CN103107959A (zh) * | 2011-11-14 | 2013-05-15 | 联想(北京)有限公司 | 一种电子设备及其数据带宽分配方法 |
CN106411782A (zh) * | 2015-07-31 | 2017-02-15 | 华为技术有限公司 | 一种带宽补偿方法及装置 |
CN108259376A (zh) * | 2018-04-24 | 2018-07-06 | 北京奇艺世纪科技有限公司 | 服务器集群业务流量的控制方法及相关设备 |
CN117221227A (zh) * | 2023-09-20 | 2023-12-12 | 成都中科微信息技术研究院有限公司 | 一种基于fpga的自适应高效仲裁管理方法 |
CN117240796A (zh) * | 2023-11-14 | 2023-12-15 | 苏州元脑智能科技有限公司 | 一种网卡限速方法、系统、设备以及存储介质 |
WO2024040976A1 (zh) * | 2022-08-24 | 2024-02-29 | 中兴通讯股份有限公司 | 网络设备的能耗控制方法及装置 |
-
2024
- 2024-06-13 CN CN202410760979.6A patent/CN118337733B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1369074A (zh) * | 1999-08-27 | 2002-09-11 | 国际商业机器公司 | 网络处理器、存储器组织和方法 |
CN101123587A (zh) * | 2007-09-13 | 2008-02-13 | 杭州华三通信技术有限公司 | 交换机业务流的流量控制方法和装置 |
CN101772083A (zh) * | 2008-12-30 | 2010-07-07 | 华为技术有限公司 | 一种带宽分配方法、装置和系统 |
CN103107959A (zh) * | 2011-11-14 | 2013-05-15 | 联想(北京)有限公司 | 一种电子设备及其数据带宽分配方法 |
CN106411782A (zh) * | 2015-07-31 | 2017-02-15 | 华为技术有限公司 | 一种带宽补偿方法及装置 |
CN108259376A (zh) * | 2018-04-24 | 2018-07-06 | 北京奇艺世纪科技有限公司 | 服务器集群业务流量的控制方法及相关设备 |
WO2024040976A1 (zh) * | 2022-08-24 | 2024-02-29 | 中兴通讯股份有限公司 | 网络设备的能耗控制方法及装置 |
CN117221227A (zh) * | 2023-09-20 | 2023-12-12 | 成都中科微信息技术研究院有限公司 | 一种基于fpga的自适应高效仲裁管理方法 |
CN117240796A (zh) * | 2023-11-14 | 2023-12-15 | 苏州元脑智能科技有限公司 | 一种网卡限速方法、系统、设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN118337733B (zh) | 2024-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111818159A (zh) | 数据处理节点的管理方法、装置、设备及存储介质 | |
CN103812949B (zh) | 一种面向实时云平台的任务调度与资源分配方法及系统 | |
CN103401947A (zh) | 多个服务器的任务分配方法和装置 | |
CN115794407A (zh) | 计算资源分配方法、装置、电子设备及非易失性存储介质 | |
CN116389365B (zh) | 一种交换机数据处理方法及系统 | |
CN112261120B (zh) | 一种配电物联网云边协同任务卸载方法及装置 | |
CN115543636B (zh) | 一种多控制器的数据备份方法及相关装置 | |
CN116760771A (zh) | 一种在线监测数据多通道传输控制策略处理方法 | |
CN110995607A (zh) | 一种传输流量的方法、装置、网络设备及存储介质 | |
CN117241333A (zh) | 一种基于5g边缘计算的数据传输系统 | |
US9621438B2 (en) | Network traffic management | |
CN118337733B (zh) | 一种带宽补偿方法、装置、设备及计算机可读存储介质 | |
CN111160661A (zh) | 一种电力通信网可靠性优化方法、系统以及设备 | |
CN102510403A (zh) | 用于车辆数据接收和实时分析的集群分布式系统及方法 | |
CN116866169A (zh) | 一种数据传输方法及系统 | |
CN117135133A (zh) | 一种Chiplet芯片内的网络互连方法 | |
CN111885158A (zh) | 一种集群任务处理方法、装置、电子设备及存储介质 | |
CN106127396A (zh) | 一种智能电网中云调度任务的方法 | |
CN113438678B (zh) | 一种为网络切片分配云资源的方法及装置 | |
CN107302501B (zh) | 一种调整网络端口聚合的方法及其装置 | |
CN111158899A (zh) | 一种数据的采集方法、采集器、任务管理中心以及系统 | |
CN112655178A (zh) | 一种发送链路聚合控制协议报文的方法、系统及装置 | |
CN114826950B (zh) | 端口数量预测方法、装置及存储介质 | |
CN115344389B (zh) | 电磁暂态仿真中计算节点间的通信任务分配方法及装置 | |
CN118689287A (zh) | 刀片服务器系统、服务器以及cxl内存配置方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |