CN114020423A - 一种块存储调度方法、装置及电子设备和存储介质 - Google Patents

一种块存储调度方法、装置及电子设备和存储介质 Download PDF

Info

Publication number
CN114020423A
CN114020423A CN202111166390.6A CN202111166390A CN114020423A CN 114020423 A CN114020423 A CN 114020423A CN 202111166390 A CN202111166390 A CN 202111166390A CN 114020423 A CN114020423 A CN 114020423A
Authority
CN
China
Prior art keywords
scheduling
neural network
deep neural
block storage
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111166390.6A
Other languages
English (en)
Inventor
雷跃辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan Inspur Data Technology Co Ltd
Original Assignee
Jinan Inspur Data Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan Inspur Data Technology Co Ltd filed Critical Jinan Inspur Data Technology Co Ltd
Priority to CN202111166390.6A priority Critical patent/CN114020423A/zh
Publication of CN114020423A publication Critical patent/CN114020423A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种块存储调度方法、装置及一种电子设备和计算机可读存储介质,该方法包括:确定块存储调度的影响因素,计算每个所述影响因素与调度时间之间的相关系数;将与所述调度时间之间的相关系数大于预设值的影响因素确定为目标影响因素;获取本次调度任务对应的目标影响因素,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点。本申请提供的块存储调度方法,通过对块存储调度的多个影响因素进行综合分析,引入影响因素与调度时间的相关系数,分析得到各个影响因素的重要程度,在此基础之上利用深度神经网络得到本次调度任务的调度节点,提高了存储调度的准确度。

Description

一种块存储调度方法、装置及电子设备和存储介质
技术领域
本申请涉及存储技术领域,更具体地说,涉及一种块存储调度方法、装置及一种电子设备和一种计算机可读存储介质。
背景技术
云存储是云计算不可或缺的重要组件,Cinder是Openstack的块存储模块,默认调度算法分为两个阶段分别是过滤和称重。具体的,当一个存储请求到来时,首先是过滤过程将符合要求的节点筛选出来,在筛选中每个节点只有两种结果,符合要求则进入待称重的队列,不符合要求则将其淘汰。之后执行称重对符合要求的节点进行排序,选取最为合适的节点,由该节点为请求提供服务。当前过滤过程检验节点是否符合要求的标准是该节点是否有足够的存储空间能够执行该次存储请求,如果有就将其放入队列以便之后的称重过程使用,反之则不予考虑。之后的称重过程基于剩余存储空间对合格节点进行排序,选取剩余存储空间最大的节点来提供服务。
但是当前的Cinder调度存在以下的问题:当前以剩余存储空间为唯一调度目标的调度方法并不能保证云存储的服务质量。例如,当某个物理节点的网络拥塞较严重但其剩余的存储空间是最大的时候,Cinder并不会意识到这一点,它还是会选取该节点来处理存储请求。但此时由于网络拥塞的影响显然该节点并不是最为理想的服务节点,导致块存储的准确度较低。
因此,如何提高块存储调度的准确度是本领域技术人员需要解决的技术问题。
发明内容
本申请的目的在于提供一种块存储调度方法、装置及一种电子设备和一种计算机可读存储介质,提高了块存储调度的准确度。
为实现上述目的,本申请提供了一种块存储调度方法,包括:
确定块存储调度的影响因素,计算每个所述影响因素与调度时间之间的相关系数;
将与所述调度时间之间的相关系数大于预设值的影响因素确定为目标影响因素;
获取本次调度任务对应的目标影响因素,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点。
其中,所述相关系数具体为皮尔逊积矩相关系数。
其中,所述计算每个所述影响因素与调度时间之间的相关系数,包括:
构建单个影响因素对应的计算样本;其中,不同的计算样本之间所述单个影响因素的数值不同、其他影响因素的数值相同;
基于每个所述计算样本的调度时间和所述单个影响因素的数值计算所述单个影响因素与调度时间之间的皮尔逊积矩相关系数。
其中,所述影响因素包括节点指标、数据指标和网络指标中任一项或任几项的组合;
所述节点指标包括节点故障率、剩余存储空间和内存占用率中任一项或任几项的组合;
所述数据指标包括数据传输距离和/或数据大小;
所述网络指标包括节点网络带宽和/或网络延迟。
其中,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点,包括:
确定本次调度任务对应的候选节点;
将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到每个所述候选节点的概率;
将概率最大的候选节点确定为所述本次调度任务对应的目标节点。
其中,还包括:
获取训练样本,并确定每个所述训练样本对应的调度节点;
初始化深度神经网络模型,利用所述训练样本和对应的调度节点训练所述深度神经网络模型,得到训练完成的深度神经网络模型。
其中,所述初始化深度神经网络模型,包括:
根据所述目标影响因素的数量确定所述深度神经网络模型的输入节点数量;
根据候选节点的数量确定所述深度神经网络模型的输出节点数量;
根据所述输入节点数量和所述输出节点数量确定所述深度神经网络模型中隐层节点的数量。
为实现上述目的,本申请提供了一种块存储调度装置,包括:
计算模块,用于确定块存储调度的影响因素,计算每个所述影响因素与调度时间之间的相关系数;
确定模块,用于将与所述调度时间之间的相关系数大于预设值的影响因素确定为目标影响因素;
输入模块,用于获取本次调度任务对应的目标影响因素,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点。
为实现上述目的,本申请提供了一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上述块存储调度方法的步骤。
为实现上述目的,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述块存储调度方法的步骤。
通过以上方案可知,本申请提供的一种块存储调度方法,包括:确定块存储调度的影响因素,计算每个所述影响因素与调度时间之间的相关系数;将与所述调度时间之间的相关系数大于预设值的影响因素确定为目标影响因素;获取本次调度任务对应的目标影响因素,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点。
本申请提供的块存储调度方法,通过对块存储调度的多个影响因素进行综合分析,引入影响因素与调度时间的相关系数,分析得到各个影响因素的重要程度,在此基础之上利用深度神经网络得到本次调度任务的调度节点,提高了存储调度的准确度。本申请还公开了一种块存储调度装置及一种电子设备和一种计算机可读存储介质,同样能实现上述技术效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1为根据一示例性实施例示出的一种块存储调度方法的流程图;
图2为根据一示例性实施例示出的另一种块存储调度方法的流程图;
图3为根据一示例性实施例示出的一种块存储调度装置的结构图;
图4为根据一示例性实施例示出的一种电子设备的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。另外,在本申请实施例中,“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
本申请实施例公开了一种块存储调度方法,提高了块存储调度的准确度。
参见图1,根据一示例性实施例示出的一种块存储调度方法的流程图,如图1所示,包括:
S101:确定块存储调度的影响因素,计算每个所述影响因素与调度时间之间的相关系数;
在本实施例中,对块存储调度的多个影响因素进行综合分析,此处的影响因素包括节点指标、数据指标和网络指标,节点指标包括节点故障率、剩余存储空间、内存占用率等,数据指标包括数据传输距离、数据大小等,网络指标包括节点网络带宽、网络延迟等。
需要说明的是,上述各个影响因素都考虑在内的话将极大的增加指标采集的难度,从而间接影响到调度速度。因此,在本步骤中,对各个影响因素与调度时间的相关性进行分析,即计算每个影响因素与调度时间之间的相关系数,找出对块存储调度影响明显的因素。
优选的,所述相关系数具体为皮尔逊积矩相关系数(Pearson product-momentcorrelation coefficient),公式如下:
Figure BDA0003291458390000051
其中,对于单个影响因素,γ代表单个影响因素与调度时间之间的皮尔逊积矩相关系数,n表示有n个样本,xi代表第i个样本中该影响因素的具体值,
Figure BDA0003291458390000052
代表该影响因素的平均值,yi表示加入该影响因素时第i个样本的调度时间,
Figure BDA0003291458390000053
代表n个样本的平均调度时间。
在具体实施中,构建单个影响因素对应的计算样本;其中,不同的计算样本之间所述单个影响因素的数值不同、其他影响因素的数值相同;基于每个所述计算样本的调度时间和所述单个影响因素的数值计算所述单个影响因素与调度时间之间的皮尔逊积矩相关系数。
S102:将与所述调度时间之间的相关系数大于预设值的影响因素确定为目标影响因素;
在具体实施中,将与所述调度时间之间的相关系数大于预设值的影响因素确定为参与本次调度任务的目标影响因素。此处不对预设值的具体数值进行限定,例如可以设置为0.8。
S103:获取本次调度任务对应的目标影响因素,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点。
在具体实施中,确定本次调度任务对应的候选节点,将本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到每个候选节点的概率,将概率最大的候选节点确定为所述本次调度任务对应的目标节点。
本申请实施例提供的块存储调度方法,通过对块存储调度的多个影响因素进行综合分析,引入影响因素与调度时间的相关系数,分析得到各个影响因素的重要程度,在此基础之上利用深度神经网络得到本次调度任务的调度节点,提高了存储调度的准确度。
本实施例将介绍深度神经网络模型的训练过程,具体的:
参见图2,根据一示例性实施例示出的另一种块存储调度方法的流程图,如图2所示,包括:
S201:获取训练样本,并确定每个所述训练样本对应的调度节点;
S202:初始化深度神经网络模型,利用所述训练样本和对应的调度节点训练所述深度神经网络模型,得到训练完成的深度神经网络模型。
本实施例中初始化的深度神经网络模型可以为BP(back propagation)神经网络,这种神经网络的层次结构可以表述为三层,输入层、隐层和输出层,其中隐层可以不止一个,根据网络的具体需要进行设置。
作为一种可行的实施方式,所述初始化深度神经网络模型,包括:根据所述目标影响因素的数量确定所述深度神经网络模型的输入节点数量;根据候选节点的数量确定所述深度神经网络模型的输出节点数量;根据所述输入节点数量和所述输出节点数量确定所述深度神经网络模型中隐层节点的数量。
在具体实施中,输入层节点数量为训练样本的维度,即上一实施例中选取的目标影响因素的数量。输出节点数量为块存储的调度结果,即候选节点的数量。根据神经网络隐层节点个数的经验公式确定隐层节点的数量:
Figure BDA0003291458390000061
其中,m为输入节点数量,n为输出节点数量,超参数α为[1,10]的随机整数。通过对模型的反复训练比较得出隐层的节点个数为4的BP神经网络的误差最小,对样本的逼近效果最好,因此本实施例可以设定隐层节点数量为4。
初始化深度神经网络模型后,利用训练样本和对应的调度节点进行,得到训练完成的深度神经网络模型,训练完成的深度神经网络模模型用于进行块存储的调度。
下面对本申请实施例提供的一种块存储调度装置进行介绍,下文描述的一种块存储调度装置与上文描述的一种块存储调度方法可以相互参照。
参见图3,根据一示例性实施例示出的一种块存储调度装置的结构图,如图3所示,包括:
计算模块301,用于确定块存储调度的影响因素,计算每个所述影响因素与调度时间之间的相关系数;
确定模块302,用于将与所述调度时间之间的相关系数大于预设值的影响因素确定为目标影响因素;
输入模块303,用于获取本次调度任务对应的目标影响因素,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点。
本申请实施例提供的块存储调度装置,通过对块存储调度的多个影响因素进行综合分析,引入影响因素与调度时间的相关系数,分析得到各个影响因素的重要程度,在此基础之上利用深度神经网络得到本次调度任务的调度节点,提高了存储调度的准确度。
在上述实施例的基础上,作为一种优选实施方式,所述相关系数具体为皮尔逊积矩相关系数。
在上述实施例的基础上,作为一种优选实施方式,所述计算模块301包括:
第一确定单元,用于确定块存储调度的影响因素;
构建单元,用于构建单个影响因素对应的计算样本;其中,不同的计算样本之间所述单个影响因素的数值不同、其他影响因素的数值相同;
计算单元,用于基于每个所述计算样本的调度时间和所述单个影响因素的数值计算所述单个影响因素与调度时间之间的皮尔逊积矩相关系数。
在上述实施例的基础上,作为一种优选实施方式,所述影响因素包括节点指标、数据指标和网络指标中任一项或任几项的组合;
所述节点指标包括节点故障率、剩余存储空间和内存占用率中任一项或任几项的组合;
所述数据指标包括数据传输距离和/或数据大小;
所述网络指标包括节点网络带宽和/或网络延迟。
在上述实施例的基础上,作为一种优选实施方式,所述输入模块303包括:
获取单元,用于获取本次调度任务对应的目标影响因素;
第二确定单元,用于确定本次调度任务对应的候选节点;
输入单元,用于将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到每个所述候选节点的概率;
第三确定单元,用于将概率最大的候选节点确定为所述本次调度任务对应的目标节点。
在上述实施例的基础上,作为一种优选实施方式,还包括:
获取模块,用于获取训练样本,并确定每个所述训练样本对应的调度节点;
训练模块,用于初始化深度神经网络模型,利用所述训练样本和对应的调度节点训练所述深度神经网络模型,得到训练完成的深度神经网络模型。
在上述实施例的基础上,作为一种优选实施方式,所述训练模块包括:
第四确定单元,用于根据所述目标影响因素的数量确定所述深度神经网络模型的输入节点数量;
第五确定单元,用于根据候选节点的数量确定所述深度神经网络模型的输出节点数量;
第六确定单元,用于根据所述输入节点数量和所述输出节点数量确定所述深度神经网络模型中隐层节点的数量;
训练单元,用于利用所述训练样本和对应的调度节点训练所述深度神经网络模型,得到训练完成的深度神经网络模型。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
基于上述程序模块的硬件实现,且为了实现本申请实施例的方法,本申请实施例还提供了一种电子设备,图4为根据一示例性实施例示出的一种电子设备的结构图,如图4所示,电子设备包括:
通信接口1,能够与其它设备比如网络设备等进行信息交互;
处理器2,与通信接口1连接,以实现与其它设备进行信息交互,用于运行计算机程序时,执行上述一个或多个技术方案提供的块存储调度方法。而所述计算机程序存储在存储器3上。
当然,实际应用时,电子设备中的各个组件通过总线系统4耦合在一起。可理解,总线系统4用于实现这些组件之间的连接通信。总线系统4除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图4中将各种总线都标为总线系统4。
本申请实施例中的存储器3用于存储各种类型的数据以支持电子设备的操作。这些数据的示例包括:用于在电子设备上操作的任何计算机程序。
可以理解,存储器3可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read-Only Memory)、电可擦除可编程只读存储器(EEPROM,Electrically Erasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,ferromagnetic random access memory)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(CD-ROM,Compact Disc Read-Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random AccessMemory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM,Synchronous Static Random Access Memory)、动态随机存取存储器(DRAM,Dynamic Random Access Memory)、同步动态随机存取存储器(SDRAM,SynchronousDynamic Random Access Memory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data Rate Synchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random Access Memory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本申请实施例描述的存储器2旨在包括但不限于这些和任意其它适合类型的存储器。
上述本申请实施例揭示的方法可以应用于处理器2中,或者由处理器2实现。处理器2可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器2中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器2可以是通用处理器、DSP,或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器2可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器3,处理器2读取存储器3中的程序,结合其硬件完成前述方法的步骤。
处理器2执行所述程序时实现本申请实施例的各个方法中的相应流程,为了简洁,在此不再赘述。
在示例性实施例中,本申请实施例还提供了一种存储介质,即计算机存储介质,具体为计算机可读存储介质,例如包括存储计算机程序的存储器3,上述计算机程序可由处理器2执行,以完成前述方法所述步骤。计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、Flash Memory、磁表面存储器、光盘、或CD-ROM等存储器。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种块存储调度方法,其特征在于,包括:
确定块存储调度的影响因素,计算每个所述影响因素与调度时间之间的相关系数;
将与所述调度时间之间的相关系数大于预设值的影响因素确定为目标影响因素;
获取本次调度任务对应的目标影响因素,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点。
2.根据权利要求1所述块存储调度方法,其特征在于,所述相关系数具体为皮尔逊积矩相关系数。
3.根据权利要求2所述块存储调度方法,其特征在于,所述计算每个所述影响因素与调度时间之间的相关系数,包括:
构建单个影响因素对应的计算样本;其中,不同的计算样本之间所述单个影响因素的数值不同、其他影响因素的数值相同;
基于每个所述计算样本的调度时间和所述单个影响因素的数值计算所述单个影响因素与调度时间之间的皮尔逊积矩相关系数。
4.根据权利要求1所述块存储调度方法,其特征在于,所述影响因素包括节点指标、数据指标和网络指标中任一项或任几项的组合;
所述节点指标包括节点故障率、剩余存储空间和内存占用率中任一项或任几项的组合;
所述数据指标包括数据传输距离和/或数据大小;
所述网络指标包括节点网络带宽和/或网络延迟。
5.根据权利要求1所述块存储调度方法,其特征在于,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点,包括:
确定本次调度任务对应的候选节点;
将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到每个所述候选节点的概率;
将概率最大的候选节点确定为所述本次调度任务对应的目标节点。
6.根据权利要求1至5中任一项所述块存储调度方法,其特征在于,还包括:
获取训练样本,并确定每个所述训练样本对应的调度节点;
初始化深度神经网络模型,利用所述训练样本和对应的调度节点训练所述深度神经网络模型,得到训练完成的深度神经网络模型。
7.根据权利要求6所述块存储调度方法,其特征在于,所述初始化深度神经网络模型,包括:
根据所述目标影响因素的数量确定所述深度神经网络模型的输入节点数量;
根据候选节点的数量确定所述深度神经网络模型的输出节点数量;
根据所述输入节点数量和所述输出节点数量确定所述深度神经网络模型中隐层节点的数量。
8.一种块存储调度装置,其特征在于,包括:
计算模块,用于确定块存储调度的影响因素,计算每个所述影响因素与调度时间之间的相关系数;
确定模块,用于将与所述调度时间之间的相关系数大于预设值的影响因素确定为目标影响因素;
输入模块,用于获取本次调度任务对应的目标影响因素,将所述本次调度任务对应的目标影响因素输入训练完成的深度神经网络模型中,得到所述本次调度任务对应的目标节点。
9.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至7任一项所述块存储调度方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述块存储调度方法的步骤。
CN202111166390.6A 2021-09-30 2021-09-30 一种块存储调度方法、装置及电子设备和存储介质 Pending CN114020423A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111166390.6A CN114020423A (zh) 2021-09-30 2021-09-30 一种块存储调度方法、装置及电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111166390.6A CN114020423A (zh) 2021-09-30 2021-09-30 一种块存储调度方法、装置及电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN114020423A true CN114020423A (zh) 2022-02-08

Family

ID=80055453

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111166390.6A Pending CN114020423A (zh) 2021-09-30 2021-09-30 一种块存储调度方法、装置及电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN114020423A (zh)

Similar Documents

Publication Publication Date Title
JP6414363B2 (ja) 予測システム、方法およびプログラム
WO2021068513A1 (zh) 异常对象识别方法、装置、介质及电子设备
JP6311851B2 (ja) 共クラスタリングシステム、方法およびプログラム
CN112686382B (zh) 一种卷积模型轻量化方法及系统
CN116684330A (zh) 基于人工智能的流量预测方法、装置、设备及存储介质
JP2008158748A (ja) 変数選択装置、方法およびプログラム
CN111784246B (zh) 物流路径的估测方法
CN111783883A (zh) 一种异常数据的检测方法及装置
CN111815209A (zh) 应用于风控模型的数据降维方法及装置
CN114020423A (zh) 一种块存储调度方法、装置及电子设备和存储介质
CN113780666B (zh) 一种缺失值的预测方法及装置、可读存储介质
CN115577798A (zh) 基于随机加速梯度下降的半联邦学习方法及装置
CN112242959B (zh) 微服务限流控制方法、装置、设备及计算机存储介质
CN110264306B (zh) 基于大数据的产品推荐方法、装置、服务器及介质
CN110134575B (zh) 一种服务器集群的服务能力计算方法及装置
JP5824429B2 (ja) スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム
CN111783453A (zh) 文本的情感信息处理方法及装置
CN111767980A (zh) 模型优化方法、装置及设备
CN116228484B (zh) 基于量子聚类算法的课程组合方法及装置
CN112259239B (zh) 一种参数处理方法、装置、电子设备及存储介质
CN117112449B (zh) 数据治理工具的成熟度评估方法、装置、设备及介质
CN116737607B (zh) 样本数据缓存方法、系统、计算机设备和存储介质
US11748668B2 (en) Internal load balancer for tree-based ensemble classifiers
CN115550276A (zh) 基于并行路由的流量抛弃方法及相关设备
WO2021106202A1 (ja) 学習装置、学習方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination