CN111124283A - 一种存储空间管理方法、系统、电子设备及存储介质 - Google Patents
一种存储空间管理方法、系统、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111124283A CN111124283A CN201911207147.7A CN201911207147A CN111124283A CN 111124283 A CN111124283 A CN 111124283A CN 201911207147 A CN201911207147 A CN 201911207147A CN 111124283 A CN111124283 A CN 111124283A
- Authority
- CN
- China
- Prior art keywords
- load
- logical volume
- home node
- request home
- request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0631—Configuration or reconfiguration of storage systems by allocating resources to storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0614—Improving the reliability of storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0662—Virtualisation aspects
- G06F3/0665—Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种存储空间管理方法,应用于包括第一控制器和第二控制器的电子设备,所述存储空间管理方法包括获取所述第一控制器中第一请求归属节点的第一逻辑卷负载量,并获取所述第二控制器中第二请求归属节点的第二逻辑卷负载量;根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点;若是,则确定逻辑卷负载迁移量,并根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作。本申请能够实现双控制器的逻辑卷负载均衡,避免出现存储性能瓶颈。本申请还公开了一种存储空间管理系统、一种电子设备及一种存储介质,具有以上有益效果。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种存储空间管理方法、系统、一种电子设备及一种存储介质。
背景技术
在存储设计中,精简卷作为一个逻辑卷,在用户写入数据时分配的地址是一个逻辑地址LBA,实际上数据存储的位置在下层模块给出的一个PBA所指定的位置上,这其中就涉及到元数据模块的管理:元数据模块即是管理这个对应关系的模块。当业务请求下发时,必须通过元数据模块才能找到实际的数据位置,从而进行数据的增加、删除等操作。
在包括双控制器的集群中,对于上层业务I/O,只使用其中的一个控制器进行处理,而另一个控制器只作为镜像以维持高可用性。每一个精简卷都有一个全局唯一的ID来表征,在创建的时候会根据卷的ID来指定一个Owner节点。按照负载均衡考虑,一般按照逻辑卷ID选择owner节点(即请求归属节点),结果为0和1则分别表示两个节点。对于每个请求,可以通过其需下发到卷的owner作为该请求处理的owner。
在正常情况下是足以满足负载均衡条件的,但是若有一种极端情况则不能满足:假设用户创建了10000个卷,逻辑卷ID=0,1,2,3,...,10000,此时两个节点刚好分别有5000个卷。但若删除了其中所有的偶数(或奇数)的卷,则剩下的5000个卷的owner都集中在了同一个节点中,从而对性能造成瓶颈。
因此,如何实现双控制器的逻辑卷负载均衡,避免出现存储性能瓶颈是本领域技术人员目前需要解决的技术问题。
发明内容
本申请的目的是提供一种存储空间管理方法、系统、一种电子设备及一种存储介质,能够实现双控制器的逻辑卷负载均衡,避免出现存储性能瓶颈。
为解决上述技术问题,本申请提供一种存储空间管理方法,应用于包括第一控制器和第二控制器的电子设备,该存储空间管理方法包括:
获取所述第一控制器中第一请求归属节点的第一逻辑卷负载量,并获取所述第二控制器中第二请求归属节点的第二逻辑卷负载量;
根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点;
若是,则确定逻辑卷负载迁移量,并根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作。
可选的,根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点包括:
计算所述第一逻辑卷负载量与所述第二逻辑卷负载量的负载量差值;
判断所述负载量的差值的绝对值是否大于预设值;
若是,则判定存在负载异常的请求归属节点;
若否,则判定不存在负载异常的请求归属节点。
可选的,所述确定逻辑卷负载迁移量包括:
计算所述第一逻辑卷负载量与所述第二逻辑卷负载量的负载量差值,将所述负载量差值的绝对值的平均值设置为所述逻辑卷负载迁移量。
可选的,根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作包括:
将逻辑卷负载量最大的请求归属节点设置为负载异常节点,将逻辑卷负载量最小的请求归属节点设置为正常节点;
将所述负载异常节点中所述逻辑卷负载迁移量个逻辑卷迁移至所述正常节点。
可选的,在根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作之后,还包括:
确定所述异常负载节点的目标迁移逻辑卷;
清除所述目标迁移逻辑卷在内存中的Root信息,并控制所述正常节点从磁盘中重新读取Root信息。
可选的,在判定存在负载异常的请求归属节点时,还包括:
将所述第一请求归属节点和所述第二请求归属节点的设置为静默状态,以便将上层发送至所述第一请求归属节点或所述第二请求归属节点的请求添加至任务队列
可选的,在根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作之后,还包括:
将所述第一请求归属节点和所述第二请求归属节点由所述静默状态切换为工作状态,并将所述任务队列中的请求下发至所述第一请求归属节点或所述第二请求归属节点。
本申请还提供了一种存储空间管理系统,应用于包括第一控制器和第二控制器的电子设备,该存储空间管理系统包括:
负载检测模块,用于获取所述第一控制器中第一请求归属节点的第一逻辑卷负载量,并获取所述第二控制器中第二请求归属节点的第二逻辑卷负载量;
判断模块,用于根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点;
负载迁移模块,用于当存在负载异常的请求归属节点时,确定逻辑卷负载迁移量,并根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作。
本申请还提供了一种存储介质,其上存储有计算机程序,所述计算机程序执行时实现上述存储空间管理方法执行的步骤。
本申请还提供了一种电子设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现上述存储空间管理方法执行的步骤。
本申请提供了一种存储空间管理方法,应用于包括第一控制器和第二控制器的电子设备,所述存储空间管理方法包括获取所述第一控制器中第一请求归属节点的第一逻辑卷负载量,并获取所述第二控制器中第二请求归属节点的第二逻辑卷负载量;根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点;若是,则确定逻辑卷负载迁移量,并根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作。
本申请首先确定第一请求归属节点的第一逻辑卷负载量和第二请求归属节点的第二逻辑卷负载量,进而根据第一逻辑卷负载量与第二逻辑卷负载量判断第一请求归属节点或第二请求归属节点是否为存在负载异常的节点,若存在异常节点则通过第一请求归属节点和第二请求归属节点之间执行逻辑卷负载迁移操作,使得迁移后的第一请求归属节点或第二请求归属节点能够保持负载均衡,因此本申请能够实现双控制器的逻辑卷负载均衡,避免出现存储性能瓶颈。本申请同时还提供了一种存储空间管理系统、一种电子设备和一种存储介质,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例,下面将对实施例中所需要使用的附图做简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例所提供的一种存储空间管理方法的流程图;
图2为本申请实施例所提供的一种存储空间管理系统的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
下面请参见图1,图1为本申请实施例所提供的一种存储空间管理方法的流程图。
具体步骤可以包括:
S101:获取所述第一控制器中第一请求归属节点的第一逻辑卷负载量,并获取所述第二控制器中第二请求归属节点的第二逻辑卷负载量;
其中,本实施例可以应用于包括第一控制器和第二控制器的电子设备,该电子设备的存储系统的两个控制器可以组成一个集群,在A-B型存储架构设计中,对于上层业务I/O,只使用其中的一个控制器(如第一控制器)进行处理,而另一个控制器(如第二控制器)只作为镜像以维持高可用性。控制器的处理可以包括元数据的事务模块操作及镜像操作、写缓存的镜像操作、写缓存的下刷操作、读盘操作等。对于每个请求,控制器都会根据某些原则来指定一个请求归属节点(即owner节点),若第一控制器的节点为该请求的请求归属节点,则事务模块直接通知写缓存模块进行处理,同时事务模块将操作发送到对端,对端写缓存模块进行相同处理以达到镜像的效果。若第一控制器不是该请求的请求归属节点,则转发到第二控制器的请求归属节点进行处理,之后过程与上相同。
具体的,本实施例可以根据逻辑卷的全剧唯一ID分配对应的请求归属节点,例如可以将ID末位为奇数的逻辑卷分配至第一请求归属节点,可以将ID末位为偶数的逻辑卷分配至第二请求归属节点。
本步骤中获取的第一请求归属节点的第一逻辑卷负载量指第一请求归属节点内存储的逻辑卷的数量,第二请求归属节点的第二逻辑卷负载量指第二请求归属节点内存储的逻辑卷的数量。
S102:根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点;若是,则进入S103;若否,则结束流程
其中,本实施例可以预先设置关于负载均衡的评价参数,例如第一逻辑卷负载量和第二逻辑卷负载量的比例在第一预设范围内时说明第一请求归属节点和第二请求归属节点处于负载均衡的状态,例如第一逻辑卷负载量和第二逻辑卷负载量的负载量差值在第二预设范围内时说明第一请求归属节点和第二请求归属节点处于负载均衡的状态。作为一种可选的实施方式,当第一逻辑卷负载量和第二逻辑卷负载量的比例在49:51与51:49之间时可以判定处于负载均衡状态。
本步骤中所描述的负载异常的请求归属节点为负载过大的请求归属节点,在确定存在负载异常的请求归属节点之后可以执行S103的逻辑卷负载迁移的操作。可以理解的是,在检测到不存在负载异常的请求归属节点时,本实施例可以在延时预设时长后重新进入S101和S102的相关操作。
作为一种可行的实施方式,在S102之前还可以存在判断第一逻辑卷负载量或第二逻辑卷负载量是否大于预设逻辑卷负载量的操作,若大于则进入S102;若不大于,则结束流程。可以理解的是,在逻辑卷数量很少的时候,即使存在负载不均衡的情况也不会造成存储性能瓶颈,因此可以在第一逻辑卷负载量或第二逻辑卷负载量是否大于预设逻辑卷负载量时再进行负载异常的检测。
S103:确定逻辑卷负载迁移量,并根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作。
其中,本步骤建立在已经判断存在负载异常的请求归属节点的基础上,确定第一请求归属节点与第二请求归属节点之间逻辑卷负载迁移量,在逻辑卷负载迁移量之间执行负载迁移操作,使得第一请求归属节点与第二请求归属节点之间处于负载均衡的状态。具体的,本实施例可以根据S101检测的第一逻辑卷负载量和第二逻辑卷负载量确定逻辑卷负载迁移量。所述确定逻辑卷负载迁移量的方式可以包括:计算所述第一逻辑卷负载量与所述第二逻辑卷负载量的负载量差值,将所述负载量差值的绝对值的平均值设置为所述逻辑卷负载迁移量。例如,第一逻辑卷负载迁移量为40,第二逻辑卷负载迁移量为60,可以将二者的差的平均值10作为逻辑卷负载迁移量,从第二请求归属节点中迁移10个逻辑卷至第一请求归属节点。
本实施例首先确定第一请求归属节点的第一逻辑卷负载量和第二请求归属节点的第二逻辑卷负载量,进而根据第一逻辑卷负载量与第二逻辑卷负载量判断第一请求归属节点或第二请求归属节点是否为存在负载异常的节点,若存在异常节点则通过第一请求归属节点和第二请求归属节点之间执行逻辑卷负载迁移操作,使得迁移后的第一请求归属节点或第二请求归属节点能够保持负载均衡,因此本实施例能够实现双控制器的逻辑卷负载均衡,避免出现存储性能瓶颈。
作为对于图1对应实施例的进一步说明,S102中判断是否存在负载异常的请求归属节点的过程可以包括以下步骤:
步骤1、计算所述第一逻辑卷负载量与所述第二逻辑卷负载量的负载量差值;
步骤2、判断所述负载量的差值的绝对值是否大于预设值;若是,则进入步骤3;若否,则进入步骤4;
步骤3、判定存在负载异常的请求归属节点;
步骤4、判定不存在负载异常的请求归属节点。
作为对于图1对应实施例的进一步说明,S103中执行负载迁移操作的过程可以为:将逻辑卷负载量最大的请求归属节点设置为负载异常节点,将逻辑卷负载量最小的请求归属节点设置为正常节点;将所述负载异常节点中所述逻辑卷负载迁移量个逻辑卷迁移至所述正常节点。进一步的,在根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作之后,还可以确定所述异常负载节点的目标迁移逻辑卷;清除所述目标迁移逻辑卷在内存中的Root信息,并控制所述正常节点从磁盘中重新读取Root信息。
作为对于图1对应实施例的进一步说明,在判定存在负载异常的请求归属节点时,还可以将所述第一请求归属节点和所述第二请求归属节点的设置为静默状态,以便将上层发送至所述第一请求归属节点或所述第二请求归属节点的请求添加至任务队列;将所述第一请求归属节点和所述第二请求归属节点由所述静默状态切换为工作状态,并将所述任务队列中的请求下发至所述第一请求归属节点或所述第二请求归属节点。其中,当第一请求归属节点和所述第二请求归属节点被设置为静默状态时已下发的I/O继续处理,未下发的I/O加入暂存队列。
下面通过在实际应用中的实施例说明上述实施例描述的流程。
假设集群中的两个请求归属节点为A和B,集群中维护一个表,用于记录当前有效的卷的请求归属信息,集群中维护一个状态,用于表示集群中当前请求归属配置的均衡性。
节点A的均衡性=owner为节点A的逻辑卷数目/有效L逻辑卷的总数目;
节点B的均衡性=1-节点A的均衡性。
均衡性判断方式如下:
若节点A的均衡性=50%,则表示系统中刚好是均衡状态;
若节点A的均衡性<50%,则表示节点B的负载过大;
若节点A的均衡性>50%,则表示节点A的负载过大;
在每次创建和删除卷的时候进行判断,若某节点的均衡性大于(小于)某个阈值,则对其进行均衡性处理。
可选的,本实施例可以允许用户设定均衡处理的阈值,也可以通过设置为无效值从而不开启该功能;本实施例可以允许用户设定均衡处理的时间。例如设置为在业务负载较小的凌晨进行处理,降低在切换过程中对业务性能造成的影响。
需要注意的是此处需要考虑HA(High Availability,高可用性)场景。若单个控制器离线后,存活控制器作为所有逻辑卷的owner,此时节点A的均衡性为1,即节点A的负载过大,但即使如此,由于集群中不存在另一个节点,因此不进行均衡处理。
在不均衡情况下,需要进行均衡处理。根据以下方法找到需要切换owner的逻辑卷ID,加入调度任务即可。基本原则如下所示:
a)节点A的均衡性>50%:
需要切换owner的逻辑卷数目:(owner为节点A的逻辑卷数目-owner为节点B的逻辑卷数目)/2;
需要切换owner的逻辑卷ID:随机从集群中维护的owner为节点A的逻辑卷ID中找出指定数目的逻辑卷ID。
b)节点B的均衡性>50%:
需要切换owner的逻辑卷数目:(owner为节点B的逻辑卷数目-owner为节点A的逻辑卷数目)/2;
需要切换owner的逻辑卷ID:随机从集群中维护的owner为节点B的逻辑卷ID中找出指定数目的逻辑卷ID。
在检测到存在负载不均衡的情况下可以执行以下步骤:
第一步:精简卷层及以上进入静默状态,已下发的I/O继续处理,未下发的I/O加入暂存队列,精简卷层以下保持正常状态以允许正常接受请求;
第二步:通知元数据模块在旧的owner端进行切换卷owner操作;
第三步:更改该逻辑卷ID对应的owner属性;
第四步:通知元数据模块在新的owner端进行接管卷操作;
第五步:所有模块解开静默状态,进入运行状态。暂存队列中的请求重新下发,并允许接受新的I/O。
具体的,元数据模块具体操作可以分为ownerToBackup和backupToOwner两个步骤。
a)在该逻辑卷的原owner节点中:
第一步:下刷写缓存,从而更新ROOT节点;
第二步:清除内存中该Owner节点的ROOT信息;
第三步:清除该owner节点的读缓存数据;
b)在该逻辑卷的现owner节点中:
第一步:恢复该逻辑卷的ROOT节点;
由于原owner需要下刷,下刷完成后磁盘中才有最新的数据,因此第2个步骤应该在第1个步骤完成之后才能处理。
对于元数据来说,总的原则就是保证其数据结构能够准备无误地读写操作。本文的元数据形式以B+树为例。对于树来说,最重要的便是根节点,只有根节点可用,才能重新对树结构进行操作。在正常情况下进行B+树操作的时候根节点一直在内存中保存,但在修改的时候会首先修改盘上的根节点数据,然后同步到内存中。
rootNode中包含当前树所对应的逻辑卷Id,CRC校验值,MagicNumber等。为了便于修复,将磁盘中的逻辑地址从零开始划分一部分区域作为ROOT区,专门用于保存rootNode信息。这样在发生系统异常的情况下,可以直接使用地址将rootNode读取至内存中进行恢复。一旦读取到该节点的内存中,该节点便具有对元数据的增删改查的能力。
上述实施例提供了一种基于存储设备的卷级别自动负载均衡技术,可以通过检测集群中卷的不均衡性来触发owner切换功能,从而达到自动均衡的效果。通过监测集群中所有卷的owner属性状态,从而计算得到不均衡性,在达到一定的条件时自动触发卷owner切换,从而达到自动负载均衡的效果。对于旧owner节点通过精简卷层的静默阻止新业务I/O的下发,将其加入暂存队列,然后将待切换owner的LUN(Logic Unit Number,逻辑单元号,此处简要地表示为逻辑卷)进行强制刷盘操作,待下刷完成后清除该LUN在内存中的ROOT信息,然后通知新的owner节点从磁盘中读取ROOT,从而允许新的owner节点处理元数据。本实施例采用的方案能够为提升存储系统的性能,能够实现存储系统的卷级别的自动负载均衡。
请参见图2,图2为本申请实施例所提供的一种存储空间管理系统的结构示意图;本实施例可以应用于包括第一控制器和第二控制器的电子设备,所述存储空间管理系统包括:
负载检测模块100,用于获取所述第一控制器中第一请求归属节点的第一逻辑卷负载量,并获取所述第二控制器中第二请求归属节点的第二逻辑卷负载量;
判断模块200,用于根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点;
负载迁移模块300,用于当存在负载异常的请求归属节点时,确定逻辑卷负载迁移量,并根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作。
本实施例首先确定第一请求归属节点的第一逻辑卷负载量和第二请求归属节点的第二逻辑卷负载量,进而根据第一逻辑卷负载量与第二逻辑卷负载量判断第一请求归属节点或第二请求归属节点是否为存在负载异常的节点,若存在异常节点则通过第一请求归属节点和第二请求归属节点之间执行逻辑卷负载迁移操作,使得迁移后的第一请求归属节点或第二请求归属节点能够保持负载均衡,因此本方案能够实现双控制器的逻辑卷负载均衡,避免出现存储性能瓶颈。
进一步的,判断模块200用于计算所述第一逻辑卷负载量与所述第二逻辑卷负载量的负载量差值;还用于判断所述负载量的差值的绝对值是否大于预设值;若是,则判定存在负载异常的请求归属节点;若否,则判定不存在负载异常的请求归属节点。
进一步的,负载迁移模块300包括:
迁移量确定单元,用于计算所述第一逻辑卷负载量与所述第二逻辑卷负载量的负载量差值,将所述负载量差值的绝对值的平均值设置为所述逻辑卷负载迁移量。
异常节点设置单元,用于将逻辑卷负载量最大的请求归属节点设置为负载异常节点,将逻辑卷负载量最小的请求归属节点设置为正常节点;
迁移单元,用于将所述负载异常节点中所述逻辑卷负载迁移量个逻辑卷迁移至所述正常节点。
进一步的,还包括:
Root更新模块,用于在根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作之后,确定所述异常负载节点的目标迁移逻辑卷;还用于清除所述目标迁移逻辑卷在内存中的Root信息,并控制所述正常节点从磁盘中重新读取Root信息。
进一步的,还包括:
状态设置模块,用于在判定存在负载异常的请求归属节点时,将所述第一请求归属节点和所述第二请求归属节点的设置为静默状态,以便将上层发送至所述第一请求归属节点或所述第二请求归属节点的请求添加至任务队列进一步的,还包括:
状态切换模块,用于在根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作之后,将所述第一请求归属节点和所述第二请求归属节点由所述静默状态切换为工作状态,并将所述任务队列中的请求下发至所述第一请求归属节点或所述第二请求归属节点。
由于系统部分的实施例与方法部分的实施例相互对应,因此系统部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
本申请还提供了一种存储介质,其上存有计算机程序,该计算机程序被执行时可以实现上述实施例所提供的步骤。该存储介质可以包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请还提供了一种电子设备,可以包括存储器和处理器,所述存储器中存有计算机程序,所述处理器调用所述存储器中的计算机程序时,可以实现上述实施例所提供的步骤。当然所述电子设备还可以包括各种网络接口,电源等组件。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的状况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (10)
1.一种存储空间管理方法,其特征在于,应用于包括第一控制器和第二控制器的电子设备,所述存储空间管理方法包括:
获取所述第一控制器中第一请求归属节点的第一逻辑卷负载量,并获取所述第二控制器中第二请求归属节点的第二逻辑卷负载量;
根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点;
若是,则确定逻辑卷负载迁移量,并根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作。
2.根据权利要求1所述存储空间管理方法,其特征在于,根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点包括:
计算所述第一逻辑卷负载量与所述第二逻辑卷负载量的负载量差值;
判断所述负载量的差值的绝对值是否大于预设值;
若是,则判定存在负载异常的请求归属节点;
若否,则判定不存在负载异常的请求归属节点。
3.根据权利要求1所述存储空间管理方法,其特征在于,所述确定逻辑卷负载迁移量包括:
计算所述第一逻辑卷负载量与所述第二逻辑卷负载量的负载量差值,将所述负载量差值的绝对值的平均值设置为所述逻辑卷负载迁移量。
4.根据权利要求1所述存储空间管理方法,其特征在于,根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作包括:
将逻辑卷负载量最大的请求归属节点设置为负载异常节点,将逻辑卷负载量最小的请求归属节点设置为正常节点;
将所述负载异常节点中所述逻辑卷负载迁移量个逻辑卷迁移至所述正常节点。
5.根据权利要求4所述存储空间管理方法,其特征在于,在根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作之后,还包括:
确定所述异常负载节点的目标迁移逻辑卷;
清除所述目标迁移逻辑卷在内存中的Root信息,并控制所述正常节点从磁盘中重新读取Root信息。
6.根据权利要求1至5任一项所述存储空间管理方法,其特征在于,在判定存在负载异常的请求归属节点时,还包括:
将所述第一请求归属节点和所述第二请求归属节点的设置为静默状态,以便将上层发送至所述第一请求归属节点或所述第二请求归属节点的请求添加至任务队列。
7.根据权利要求6所述存储空间管理方法,其特征在于,在根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作之后,还包括:
将所述第一请求归属节点和所述第二请求归属节点由所述静默状态切换为工作状态,并将所述任务队列中的请求下发至所述第一请求归属节点或所述第二请求归属节点。
8.一种存储空间管理系统,其特征在于,应用于包括第一控制器和第二控制器的电子设备,所述存储空间管理系统包括:
负载检测模块,用于获取所述第一控制器中第一请求归属节点的第一逻辑卷负载量,并获取所述第二控制器中第二请求归属节点的第二逻辑卷负载量;
判断模块,用于根据所述第一逻辑卷负载量和所述第二逻辑卷负载量判断是否存在负载异常的请求归属节点;
负载迁移模块,用于当存在负载异常的请求归属节点时,确定逻辑卷负载迁移量,并根据所述逻辑卷负载迁移量执行第一请求归属节点与所述第二请求归属节点之间的负载迁移操作。
9.一种电子设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器调用所述存储器中的计算机程序时实现如权利要求1至7任一项所述存储空间管理方法的步骤。
10.一种存储介质,其特征在于,所述存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如上权利要求1至7任一项所述存储空间管理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911207147.7A CN111124283A (zh) | 2019-11-29 | 2019-11-29 | 一种存储空间管理方法、系统、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911207147.7A CN111124283A (zh) | 2019-11-29 | 2019-11-29 | 一种存储空间管理方法、系统、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111124283A true CN111124283A (zh) | 2020-05-08 |
Family
ID=70496360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911207147.7A Withdrawn CN111124283A (zh) | 2019-11-29 | 2019-11-29 | 一种存储空间管理方法、系统、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111124283A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113721842A (zh) * | 2021-07-29 | 2021-11-30 | 苏州浪潮智能科技有限公司 | 一种io管理方法、系统、设备及计算机可读存储介质 |
CN113849129A (zh) * | 2021-09-18 | 2021-12-28 | 苏州浪潮智能科技有限公司 | 一种存储控制器间的io请求转发方法、装置及设备 |
CN115309591A (zh) * | 2022-10-10 | 2022-11-08 | 浪潮电子信息产业股份有限公司 | 一种全闪存储系统的恢复方法及相关装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101345770A (zh) * | 2008-08-22 | 2009-01-14 | 杭州华三通信技术有限公司 | 负载均衡实现方法、存储控制设备和存储系统 |
CN101763032A (zh) * | 2009-12-17 | 2010-06-30 | 成都市华为赛门铁克科技有限公司 | 调整逻辑单元号的控制器的方法及装置 |
US20100235604A1 (en) * | 2009-03-11 | 2010-09-16 | Fujitsu Limited | Computer-readable recording medium storing management program, management apparatus, and management method |
US20110191537A1 (en) * | 2009-10-09 | 2011-08-04 | Hitachi, Ltd. | Storage controller and virtual volume control method |
CN104636264A (zh) * | 2013-11-11 | 2015-05-20 | 国际商业机器公司 | 主动/被动存储系统中的负载平衡逻辑单元 |
CN106873907A (zh) * | 2017-01-09 | 2017-06-20 | 中国电子科技集团公司第五十二研究所 | 一种多控制器存储阵列读写负载均衡方法及装置 |
CN107577425A (zh) * | 2017-08-23 | 2018-01-12 | 杭州宏杉科技股份有限公司 | 一种数据迁移方法及装置 |
CN107861691A (zh) * | 2017-11-22 | 2018-03-30 | 北京腾凌科技有限公司 | 一种多控存储系统的负载均衡方法和装置 |
-
2019
- 2019-11-29 CN CN201911207147.7A patent/CN111124283A/zh not_active Withdrawn
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101345770A (zh) * | 2008-08-22 | 2009-01-14 | 杭州华三通信技术有限公司 | 负载均衡实现方法、存储控制设备和存储系统 |
US20100235604A1 (en) * | 2009-03-11 | 2010-09-16 | Fujitsu Limited | Computer-readable recording medium storing management program, management apparatus, and management method |
US20110191537A1 (en) * | 2009-10-09 | 2011-08-04 | Hitachi, Ltd. | Storage controller and virtual volume control method |
CN101763032A (zh) * | 2009-12-17 | 2010-06-30 | 成都市华为赛门铁克科技有限公司 | 调整逻辑单元号的控制器的方法及装置 |
CN104636264A (zh) * | 2013-11-11 | 2015-05-20 | 国际商业机器公司 | 主动/被动存储系统中的负载平衡逻辑单元 |
CN106873907A (zh) * | 2017-01-09 | 2017-06-20 | 中国电子科技集团公司第五十二研究所 | 一种多控制器存储阵列读写负载均衡方法及装置 |
CN107577425A (zh) * | 2017-08-23 | 2018-01-12 | 杭州宏杉科技股份有限公司 | 一种数据迁移方法及装置 |
CN107861691A (zh) * | 2017-11-22 | 2018-03-30 | 北京腾凌科技有限公司 | 一种多控存储系统的负载均衡方法和装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113721842A (zh) * | 2021-07-29 | 2021-11-30 | 苏州浪潮智能科技有限公司 | 一种io管理方法、系统、设备及计算机可读存储介质 |
CN113721842B (zh) * | 2021-07-29 | 2023-08-22 | 苏州浪潮智能科技有限公司 | 一种io管理方法、系统、设备及计算机可读存储介质 |
CN113849129A (zh) * | 2021-09-18 | 2021-12-28 | 苏州浪潮智能科技有限公司 | 一种存储控制器间的io请求转发方法、装置及设备 |
CN113849129B (zh) * | 2021-09-18 | 2023-08-25 | 苏州浪潮智能科技有限公司 | 一种存储控制器间的io请求转发方法、装置及设备 |
CN115309591A (zh) * | 2022-10-10 | 2022-11-08 | 浪潮电子信息产业股份有限公司 | 一种全闪存储系统的恢复方法及相关装置 |
CN115309591B (zh) * | 2022-10-10 | 2023-03-24 | 浪潮电子信息产业股份有限公司 | 一种全闪存储系统的恢复方法及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8069191B2 (en) | Method, an apparatus and a system for managing a snapshot storage pool | |
US9361034B2 (en) | Transferring storage resources between snapshot storage pools and volume storage pools in a distributed network | |
US7392362B2 (en) | System and method for volume management | |
US8918609B2 (en) | Storage apparatus and data management method to determine whether to migrate data from a first storage device to a second storage device based on an access frequency of a particular logical area | |
CN111124283A (zh) | 一种存储空间管理方法、系统、电子设备及存储介质 | |
JP2011175357A5 (ja) | 管理装置及び管理プログラム | |
JP2007193573A (ja) | 記憶装置システム及び記憶制御方法 | |
CN106294206B (zh) | 一种缓存数据处理方法以及装置 | |
WO2014101044A1 (zh) | 分布式存储系统中的分区平衡方法、装置及服务器 | |
US9983806B2 (en) | Storage controlling apparatus, information processing apparatus, and computer-readable recording medium having stored therein storage controlling program | |
JPWO2014073046A1 (ja) | 情報処理装置、プログラムおよび仮想マシン移動方法 | |
JP2007316725A (ja) | 記憶領域管理方法及び管理計算機 | |
JPWO2016166844A1 (ja) | 分散処理システム、タスク処理方法、記憶媒体 | |
WO2019170011A1 (zh) | 任务分配方法及装置、分布式存储系统 | |
US7849264B2 (en) | Storage area management method for a storage system | |
CN107301090B (zh) | 在存储服务器中为应用设置数据处理路径的方法及装置 | |
JP6522168B2 (ja) | ストレージデバイスを管理するための方法および装置 | |
US20170109376A1 (en) | Method for managing data using in-memory database and apparatus thereof | |
JP5853109B2 (ja) | 計算機、計算機システムの制御装置及び記録媒体 | |
CN111552677B (zh) | 配额管理方法、装置、管理节点及存储介质 | |
US9298397B2 (en) | Nonvolatile storage thresholding for ultra-SSD, SSD, and HDD drive intermix | |
CN112748865A (zh) | 用于存储管理的方法、电子设备和计算机程序产品 | |
JP4778538B2 (ja) | ストレージデータ管理システム及びストレージデータ管理プログラム | |
US20220317883A1 (en) | Dynamic Base Disk Mirroring for Linked Clones | |
JP2004127275A (ja) | データ記憶アレイを管理する方法およびraidコントローラを備えたコンピュータシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200508 |
|
WW01 | Invention patent application withdrawn after publication |