CN110737397A - 用于管理存储系统的方法、设备和计算机程序产品 - Google Patents

用于管理存储系统的方法、设备和计算机程序产品 Download PDF

Info

Publication number
CN110737397A
CN110737397A CN201810802254.3A CN201810802254A CN110737397A CN 110737397 A CN110737397 A CN 110737397A CN 201810802254 A CN201810802254 A CN 201810802254A CN 110737397 A CN110737397 A CN 110737397A
Authority
CN
China
Prior art keywords
data
size
information indication
data information
zero
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810802254.3A
Other languages
English (en)
Other versions
CN110737397B (zh
Inventor
贾瑞勇
杨利锋
高健
徐鑫磊
刘友生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EMC Corp
Original Assignee
EMC IP Holding Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EMC IP Holding Co LLC filed Critical EMC IP Holding Co LLC
Priority to CN201810802254.3A priority Critical patent/CN110737397B/zh
Priority to US16/507,359 priority patent/US11068184B2/en
Publication of CN110737397A publication Critical patent/CN110737397A/zh
Application granted granted Critical
Publication of CN110737397B publication Critical patent/CN110737397B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/188Virtual file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/172Caching, prefetching or hoarding of files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/185Hierarchical storage management [HSM] systems, e.g. file migration or policies thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/064Management of blocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开的实施例涉及用于管理存储系统的方法、设备和计算机程序产品。该用于管理存储系统的方法包括:确定所述存储系统中的数据信息指示区域的大小,所述数据信息指示区域指示与包括多个数据块的数据块组有关的内容信息,所述数据块组是用于与所述存储系统相关联的存储处理器访问的最小数据粒度;确定所述数据信息指示区域的所述大小与所述数据块组的大小之间的对应关系;以及基于所述数据信息指示区域的所述大小和所述对应关系,确定所述数据块组的所述大小。使用本公开的技术方案,不仅可以节省互连多个存储处理器并且被各种系统组件大量使用的通信消息接口的带宽,还可以消除用于来自输入输出路径的、对数据信息指示区域的访问的跨存储处理器消息通信,不仅能够减轻对通信消息接口资源的争用,还可以提高整体系统性能。

Description

用于管理存储系统的方法、设备和计算机程序产品
技术领域
本公开的实施例总体上涉及数据存储领域,具体地涉及用于管理存储系统的方法、设备和计算机程序产品。
背景技术
存储装置阵列(也可以被称为存储系统)可以由多个对等存储处理器(SP)使用。在存储系统运作时,涉及填零(ZeroFill)操作。填零(ZeroFill)操作是一种将零写入一段连续磁盘范围中的操作。该操作通常在虚拟逻辑单元组件或者文件系统中发生。例如,当添加或移除数据块(Slice)时,虚拟逻辑单元数据块管理器通常将它们归零。同时,文件系统还经常将某些元数据(比如数据记录描述符)归零。为了提高填零的性能,高速缓存维护每LUN的填零位图(Bitmap)(在本申请中可以被称为数据信息指示区域),并且支持填零位图的存储由独立磁盘冗余阵列保留在传统LUN的末尾。
在当前的存储系统的实现方式中,填零位图以非常大的粒度被管理和访问:最小的可锁定位图块覆盖多达0.5TB的LUN磁盘范围。由于输入输出(IO)请求可以从两个SP进入高速缓存,因此落入相同位图块覆盖范围的IO将不可避免地针对位图块进行竞争,并且引起用于填零位图同步的跨SP消息通信,这会导致系统性能的劣化。
发明内容
本公开的实施例提供了用于管理存储系统的方法、设备和计算机程序产品。
在本公开的第一方面,提供了一种用于管理存储系统的方法。该方法包括:确定所述存储系统中的数据信息指示区域的大小,所述数据信息指示区域指示与包括多个数据块的数据块组有关的内容信息,所述数据块组是用于与所述存储系统相关联的存储处理器访问的最小数据粒度;确定所述数据信息指示区域的所述大小与所述数据块组的大小之间的对应关系;以及基于所述数据信息指示区域的所述大小和所述对应关系,确定所述数据块组的所述大小。
在本公开的第二方面,提供了一种用于管理存储系统的设备。该设备包括:至少一个处理单元;至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:确定所述存储系统中的数据信息指示区域的大小,所述数据信息指示区域指示与包括多个数据块的数据块组有关的内容信息,所述数据块组是用于与所述存储系统相关联的存储处理器访问的最小数据粒度;确定所述数据信息指示区域的所述大小与所述数据块组的大小之间的对应关系;以及基于所述数据信息指示区域的所述大小和所述对应关系,确定所述数据块组的所述大小。
在本公开的第三方面,提供了一种计算机程序产品。该计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行使得机器执行根据本公开的第一方面所描述的方法的任意步骤。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了传统方案中的存储系统100的示意图;
图2示出了传统方案中的填零位图200的结构示意图;
图3示出了根据本公开的实施例的独立磁盘冗余阵列映射逻辑单元号的不同视角300的示意图;
图4示出了根据本公开的实施例的应用环境400的示意图;
图5示出了根据本公开的实施例的用于管理存储系统的方法500的流程图;
图6示出了传统方案中的跨存储处理器填零位图冲突的示例600的示意图;
图7示出了根据本公开的实施例的避免跨存储处理器填零位图冲突的示例700的示意图;以及
图8示出了可以用来实施本公开内容的实施例的示例设备800的示意性框图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以按照各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如以上在背景技术中所描述的,在当前的存储系统的实现方式中,填零位图以非常大的粒度被管理和访问,从而会引起针对位图块的竞争,并且会引起用于填零位图同步的跨存储处理器消息通信,进而会导致系统性能的劣化。
图1示出了传统方案中的存储系统100的示意图。存储系统100例如可以是存储装置阵列。如图1中所示,存储系统100包括:虚拟逻辑单元110;文件系统120;数据块池130;以及高速缓存卷/LUN140-1至140-N(被统称为高速缓存卷/LUN 140),其中高速缓存卷/LUN140构成数据块池130。虚拟逻辑单元110中包括精简配置逻辑单元121-1、121-2和121-3(被统称为精简配置逻辑单元121),虚拟逻辑单元110将精简配置逻辑单元121导出给用户。在传统方案中,精简配置逻辑单元121比传统的LUN更空间高效。具体而言,精简配置逻辑单元被建立在高速缓存卷/LUN 140之上并且由两种映射实现。
一方面,文件系统120包括子文件系统124-1、124-2和124-3(被统称为子文件系统124)和稀疏卷125-1、125-2和125-3(被统称为稀疏卷125),稀疏卷125连结成逻辑地址空间。子文件系统124包括文件1221、122-2和122-3(被统称为文件122)以及快照123-1、123-2和123-3(被统称为快照123),它们构成实现虚拟逻辑单元110的地址空间的映射。文件系统120维护从精简配置逻辑单元121/文件到稀疏卷地址空间的映射。子文件系统124中的分配单元的大小是固定的,例如,8KB。
另一方面稀疏卷125维护从它的地址空间到高速缓存卷/LUN 140的映射。高速缓存卷/LUN 140的存储可能无法完全支持稀疏卷125的地址空间。因此,数据块池130所包括的LUN被划分成256兆字节(MB)大小的数据块,其可以被动态地添加到稀疏卷125中。
在存储系统100中会发生如在背景技术中所记载的填零操作。当接收到针对填零操作的请求时,取决于归零范围的大小,高速缓存按照以下方式决定是否将LUN真正归零或者只更新填零位图:
一方面,如果归零范围的大小小于1MB,则高速缓存将直接将LUN上的范围归零;以及
另一方面,否则,高速缓存只更新填零位图以将范围指示为被归零,而不将LUN上的范围归零,并且因此避免了向LUN写入太多零。
在传统方案中,当引入归零位图后,读取和写入操作都会受到影响:
对于读取操作,如果填零位图覆盖了要被读取的范围,则高速缓存可能会取决于LUN上的填零位图的内容来直接地向虚拟逻辑单元110/文件系统120报告零;以及
对于写入操作,如果要被写入的范围由填零位图覆盖,则高速缓存可能会需要清除位图中的对应的位以指示该范围不再为零。
在当前的存储系统100的实现方式中,填零位图以非常大的粒度被管理和访问:最小的可锁定位图块覆盖多达0.5TB的LUN磁盘范围。由于IO可以从多个存储处理器(在本申请中可以是两个,或者更多个)进入高速缓存,因此落入相同位图块覆盖范围的IO将不可避免地与位图块竞争并且引起用于填零位图同步的跨存储处理器消息通信,这会使系统性能劣化。
图2示出了传统方案中的填零位图200的结构的示意图。填零位图200是位于LUN末尾的一段连续存储空间。独立磁盘冗余阵列维持存储系统100中的存储空间,并且高速缓存在存储空间中维持填零位图200。填零位图200由填零位图头部210和一些填零位图块230-1至230-N(被统称为填零位图块230)构成。填零位图头部210和填零位图块230二者被按照64KB的大小依次排列,并且其大小均为64KB。64KB可以是高速缓存页面数据信息指示区域(也可以被称为高速缓存页面引用,CachePageReference)的大小。保持填零位图头部210和64KB的填零位图块230对齐的目的是使对高速缓存的数据和填零位图200中的数据的管理统一。填零位图头部210实际上仅占用一个扇区,其余扇区被保留以用于将来使用,如标号220所指示的。填零位图头部210中的信息包括填零位图块230的版本、状态和起始偏移(ZFBitmapOffset),其中起始偏移可以指示填零位图块230-1的开始位置。
高速缓存可以处理的最小和最大IO的大小分别为1扇区和4MB,并且这些IO可以按照任何扇区对齐的偏移开始。因此,高速缓存自然采用固定大小的缓存数据管理模型。
每个存储处理器中的高速缓存存储器通常被划分成小的固定大小的高速缓存页面,例如,8KB。高速缓存页面存储一组相邻的磁盘扇区,并且是高速缓存存储器的最小管理单元。高速缓存页面数据信息指示区域(也被称为高速缓存页面引用、数据信息指示区域或引用)跟踪和控制高速缓存页面中的所有数据。数据信息指示区域将高速缓存页面与LUN上的特定数据(LUN/起始LBA)相关联。数据信息指示区域最多包含8个缓存页面,并且因此可以在LUN上描述64KB的连续数据。
当IO请求进入高速缓存时,高速缓存使用从IO请求中提取的值对<LUN ID,起始LBA>作为获取对哈希表中的对应数据信息指示区域的访问的密钥。如果这些数据信息指示区域不存在,则将创建它们并将它们添加到哈希表中。在获取了所有需要的数据信息指示区域后,高速缓存可以将用户数据传输到数据信息指示区域的高速缓存页面中或者将数据从LUN加载到缓存页面中。
如以上参考图2所描述的,填零位图头部210和填零位图块230二者被64KB地对齐,并且大小均为64KB。因此,高速缓存可以利用相同的数据信息指示区域模型来访问填零位图200。跟踪填零位图块230的数据信息指示区域被称为填零位图引用或填零数据信息指示区域。在传统方案中,填零位图200中的一位(bit)代表LUN中的1MB的数据。如果该位为1,则表示整个1MB的数据均为零。如果该位为0,则表示整个1MB数据不为零。由于填零位图数据信息指示区域跟踪可以覆盖0.5TB数据的64KB的填零位图块230,因此第一个填零位图块230-1对应于LUN上的第一个0.5TB的数据,以此类推。
在传统方案中,高速缓存被设计用于为虚拟逻辑单元110/文件系统120提供对LUN的主动/主动访问的能力。主动/主动访问模型本质上需要同步机制来将对同一段数据的并行访问序列化。两个存储处理器上具有相同页面号的高速缓存形成一对镜像的页面。这一对镜像页面可以在LUN上存储相同的一段数据,从而使得可以在两个存储处理器之间共享数据。但是镜像的页面中的数据不能同时从两个存储处理器被修改。
对于跨存储处理器访问控制,使用数据信息指示区域令牌机制。每个数据信息指示区域被初始化有一个令牌。具有一个令牌的数据信息指示区域仅对它的页面具有共享访问权限。为了获得对整个镜像的页面的独占访问权限,数据信息指示区域必须请求由对等数据信息指示区域持有的令牌,该对等数据信息指示区域跟踪来自对等存储处理器的相同范围的数据。也就是说,具有两个令牌的数据信息指示区域可以具有对镜像的页面的完全控制。不具有令牌的数据信息指示区域无法访问它的页面。
尽管跨存储处理器令牌消息是主动/主动访问模式必须付出的必要成本,但是覆盖多达0.5TB存储空间的64KB的填零位图块230已经引起频繁的跨存储处理器令牌消息,并且成为系统性能的瓶颈。例如,如果写入被发送到相同的0.5TB对齐的0.5TB范围并且由于范围被归零而需要更新对应的填零位图块230,则必须在两个存储处理器之间来回传送填零位图数据信息指示区域的令牌。实际上,不仅写入,所有其他IO操作(例如,读取、填零、数据移动和全异写操作(disparatewrite)等)需要首先访问填零位图以确定目标范围是否被归零。如果对等存储处理器正在使用对应的填零位图数据信息指示区域的令牌,则这些操作必须从对等体请求至少一个令牌并且阻塞,直到令牌返回为止。这会使系统性能劣化。
针对传统方案,本公开利用实测问题发现技术进行了问题发现。在所得到的问题发现实例中体现了引起缓慢IO并最终导致单个存储处理器恐慌的问题。
下面的表1中示出了高速缓存中的未决虚拟逻辑单元110/文件系统120IO的状态。
Figure BDA0001737398820000081
表1
从表1中可以看到,写入的平均响应时间(右侧的AvgTime)是0.91秒,并且最大值(右侧的MxaTime)是1.66秒。注意,虚拟逻辑单元110/文件系统120可以将用户IO分解为许多子IO,并且这些子IO将以某种顺序被发送给高速缓存。对于写入子IO,由于平均响应时间为0.91秒,因此,累积的结果是用户IO变得非常慢。
进一步的分析表明192个虚拟逻辑单元110/文件系统120IO被阻塞,从而等待相同的填零位图数据信息指示区域0x7f83f5a93750。填零位图数据信息指示区域由对等存储处理器独占地持有。参见以下的表2,其为针对填零位图200的写入等待的示例。使用一个写入0x7f84042b6ec0作为示例:写入尝试获取填零位图数据信息指示区域,但该数据信息指示区域没有令牌(mTokensHeld:0),因此它必须从对等存储处理器请求两个令牌(mTokensRequestedFromPeer:2)。填零位图数据信息指示区域仅由本地最早的请求(mLastGrantedTo0x7f84043e7ec0)控制,并且然后令牌被提供给对等方以避免使对等方上的IO饥饿。但是,其他本地IO再次想要令牌并且必须等待。上述实测问题示出了跨存储处理器填零位图数据信息指示区域争用的情况。
Figure BDA0001737398820000091
表2
以上参照图1和图2对传统方案中的存储系统100和填零位图200进行了描述。为了至少部分地克服传统方案中存在的上述问题,本公开的实施例提出了一种消除跨存储处理器填零位图200的访问冲突的方法。这种方法可以提高系统性能,因为访问填零位图200的IO操作不必执行跨存储处理器的消息通信。
以下参照图3至图5来详细描述根据本公开的实施例的用于管理存储系统的方法500的具体流程和操作。图3示出了根据本公开的实施例的独立磁盘冗余阵列虚拟逻辑单元的不同视角300的示意图。如前所述,被导出给用户的LUN是被构建在传统LUN之上的精简配置逻辑单元。虚拟逻辑单元110将LUN划分成多个256MB的数据块,也被称为虚拟逻辑单元数据块330,并且精简配置逻辑单元存储空间由这些数据块支持。因此,从虚拟逻辑单元数据块330的角度只能看到虚拟逻辑单元/文件系统可见空间310。此外,一个数据块只能被添加到一个精简配置逻辑单元中,并且一个精简配置逻辑单元只能由一个存储处理器拥有。需要将来自非所有者存储处理器的、对精简配置逻辑单元的IO重定向到所有者存储处理器。因此,尽管存储装置阵列对用户是主动/主动的,但从高速缓存的角度来看,由于高速缓存可以看到虚拟逻辑单元/文件系统可见空间310以及填零位图200的内容,在考虑数据块的粒度的情况下,来自虚拟逻辑单元110/文件系统120的IO的模式是主动/被动的。也就是说,目标为一个数据块的IO不会同时从两个存储处理器进入高速缓存中。
在本公开的实施例中,基本思想基于对虚拟逻辑单元110/文件系统120的数据块IO的主动/被动特性的上述观察。这意味着去往一个数据块的IO将只会从一个存储处理器进入高速缓存。对应地,对与该数据块对应的一段填零位图的访问也来自相同的该存储处理器。如果以良好设计的方式管理数据块和填零位图,则可以完全消除跨存储处理器争用。为了实现这一目的,在本公开的实施例中,为填零位图引入了可变大小的数据信息指示区域,并且为精简配置逻辑单元数据块管理引入了数据块组(也可以被称为数据块分配组,Slice Allocation Group(SAG))。这些内容可以协同工作以避免跨存储处理器填零位图冲突。
图4示出了根据本公开的实施例的应用环境400的示意图。如图4中所示,应用环境400包括存储系统100以及存储处理器410-1和410-2(被统称为存储处理器410)。存储处理器410-1和410-2共享存储系统100并且可以向存储系统100发出IO请求。应当理解,本公开的实施例并不限于在应用环境400中仅包括两个存储处理器410,而是可以在应用环境400中包括多于两个存储处理器410。因此,实施例中所记载的存储处理器410-1和410-2的数目仅用于举例说明,而并不用于对本公开进行限制。
图5示出了根据本公开的实施例的用于管理存储系统的方法500的流程图。具体而言,图5可以在图4中所示的应用环境400中被实施并且可以由存储系统100或者其他适当的设备来执行。应当理解的是,方法500还可以包括未示出的附加步骤和/或可以省略所示出的步骤,本公开的范围在此方面不受限制。
在框502,存储系统100确定存储系统100中的数据信息指示区域的大小。根据本公开的实施例,数据信息指示区域可以指示与包括多个数据块的数据块组有关的内容信息。根据本公开的一个实施例,数据信息指示区域可以指示对应的数据块组的填零状态。根据本公开的其他实施例,数据信息指示区域还可以被定义指示对应的数据块组的任何其他内容信息,比如是否被读取或者写入过、经历过的读取或者写入的次数以及存储数据的性质等。同时,根据本公开的实施例,数据块组可以被定义为是用于与存储系统100相关联的存储处理器所能够访问的最小数据粒度。以下分别针对数据信息指示区域的大小和将数据块组定义为最小数据粒度进行详细说明。
针对数据信息指示区域的大小,如前所述,传统方案中的高速缓存使用固定大小的数据信息指示区域模型:跟踪数据和填零位图块230二者的数据信息指示区域大小为64KB。数据信息指示区域由八个大小为8KB的高速缓存页面组成。数据信息指示区域以扇区的粒度跟踪高速缓存页面中的数据的以下状态:
无效(I):扇区无效;
有效(V):扇区在这一存储处理器上有效;
脏(D):扇区在两个存储处理器上都为脏;
已准备(P):对于读取,它指示扇区没有数据;对于写入,它表示该扇区包含针对提交所需的数据。
64KB对于管理数据块是适合的大小,但对于作为填零位图争用的源头的填零位图块230而言太大。假设填零位图中的一个位可以表示数据的“N”个字节是否为零。然后64KB的填零位图数据信息指示区域可以表示的数据量等于64×1024×8×N字节。在当前的高速缓存实现方式中,N是1024字节。因此,填零位图数据信息指示区域可以代表共计0.5TB的数据。
根据本公开的实施例,为了仍然利用高速缓存的数据信息指示区域模型来管理填零位图200,根据数据信息指示区域的类型来确定数据信息指示区域的大小,即,定数据信息指示区域是大小可变的。
对于数据块数据信息指示区域,其大小仍为64KB;
对于填零位图块数据信息指示区域,其大小可以是一个或多个扇区。
假设填零位图数据信息指示区域的大小是“M”个扇区。那么,一个填零位图200可以表示的数据量是M×512×8×N。填零位图数据信息指示区域的大小必须是扇区的倍数,因为存储系统100中最小的可管理数据状态是一个扇区。
通过允许用于填零位图200的较小数据信息指示区域大小,填零位图200覆盖的数据量将被对应地减少。例如,当M为1时,填零位图数据信息指示区域仅覆盖4GB的数据。相比于64KB大小的填零位图数据信息指示区域将覆盖0.5TB的数据,这可以在两个存储处理器之间极大地减少针对填零位图数据信息指示区域的访问冲突。
与传统方案相比,使用较小的填零位图数据信息指示区域将消耗稍微更多的数据信息指示区域资源。例如,对于10TB的LUN,假设填零位图数据信息指示区域大小是一个扇区,则传统方案实现方式和根据本公开的实施例的方法需要的填零位图数据信息指示区域的最大数量分别为20和2560。考虑到这是最糟糕的情况,并且考虑到高速缓存的大小通常为数十GB,这种附加的数据信息指示区域开销实际上很小,并且是可接受的。
如上所述,减小填零位图数据信息指示区域的大小可以减轻针对填零位图200的跨存储处理器访问冲突,并且极大地提高性能。
根据本公开的实施例,为了进一步减少针对填零位图200的跨存储处理器访问冲突以使得能够完全消除冲突,引入了数据块组(也可以被称为数据块分配组,SliceAllocation Group(SAG))的概念:数据块组是一组连续的数据块;必须原子地分配和释放一个数据块组中的所有数据块,这意味着数据块组将成为精简配置逻辑单元存储空间中的基本分配单元,即最小数据粒度;一个数据块组中的数据块的数量是固定的,并且取决于填零位图数据信息指示区域的大小。
假设“数据块组数目”代表一个数据块组中的数据块的数目,“S”是单个数据块的大小(单位:MB),填零位图数据信息指示区域的大小是“M”个扇区,并且填零位图中的一个位可以表示“N”字节的数据,那么,可以得到以下公式:
数据块组数目=M×512×8×(N/1024)/S
根据本公开的实施例,在M是一个扇区,N是1024字节,S是256MB时,数据块组数目是16。即,一个数据块组由16个数据块组成。
根据本公开的实施例,当从精简配置逻辑单元添加和删除数据块时,原子地处理属于同一数据块组的数据块。因此,可以确保去往一个数据块组的IO不会同时从两个存储处理器进入高速缓存。通过将数据块组的大小与填零位图数据信息指示区域的大小对齐(如上面的公式中所描绘的),去往不同数据块组的IO将永远不会竞争相同的填零位图数据信息指示区域。因此,可以完全地消除跨存储处理器的填零位图争用。
如上所述,框502中所描述的操作涵盖了确定数据信息指示区域的大小以及将数据块组定义为最小数据粒度。如上所述,由于填零位图块数据信息指示区域的大小可以是一个或多个扇区,因此存储系统100确定存储系统100中的数据信息指示区域的大小可以包括存储系统100将存储系统100中的数据信息指示区域的大小确定为一个或多个扇区。根据本公开的实施例,可以根据实际需要来确定数据信息指示区域的大小,其中数据信息指示区域的大小越小,对应的数据块组的大小就越小,并且其中数据信息指示区域的最小大小为一个扇区。
在框504,存储系统100确定数据信息指示区域的大小与数据块组的大小之间的对应关系。如上所述,数据信息指示区域中的一个位可以表示1024字节的数据,此时从一个位到1024字节即为数据信息指示区域的大小与数据块组的大小之间的对应关系。应当理解,上述对应关系可以根据系统的实际情况和所需数据进行定义,因此其具体数值并不是对本公开的范围的限制。
在框506,存储系统100基于数据信息指示区域的大小和对应关系,来确定数据块组的大小。如上所述,由于数据信息指示区域的大小和对应关系均可以是自定义的,因此数据块组的大小实际上也是可以自定义的。
在框508,存储系统100响应于接收到针对数据块组的访问请求,在数据信息指示区域中查找与数据块组有关的内容信息。根据本公开的实施例,框508是图5中的可选操作,因此用虚线的形式示出。应当理解,框502至框506中所记载的操作无需通过接收到访问请求而被触发。因此,框508实际描述了当存储系统100已经分别确定了数据信息指示区域的大小、对应关系和数据块组的大小后,如何根据访问请求来进行操作。
以上参考图5、存储系统100的角度描述了用于管理存储系统的方法500的流程。应当理解,以上从存储系统100的角度进行描述是为了更好地展示本公开中所记载的内容,而不是以任何方式进行限制。
当采用了根据本公开的实施例的用于管理存储系统的方法500后,可以容易地实现填零位图数据信息指示区域的令牌管理。
如前所述,在传统方案中,由于可以同时访问相同的填零位图块,因此填零位图数据信息指示区域的令牌必须被交替保持在两个存储处理器中以避免使任何存储处理器饥饿。自然地,经常会发生一个存储处理器必须从另一存储处理器请求令牌的情况。
当采用了根据本公开的实施例的用于管理存储系统的方法500后,作为数据信息指示区域,当更新填零位图数据信息指示区域时,它的内容也应被镜像到使用该填零位图200对等存储处理器。在对数据进行镜像时,填零位图数据信息指示区域应将它的所有令牌发送给对等存储处理器,从而使得对等存储处理器上的对等数据信息指示区域可以完全控制以利用接收的数据来更新数据。
利用根据本公开的实施例的用于管理存储系统的方法500,在存储处理器上获取和更新填零位图块意味着对应的数据块组由该存储处理器拥有,并且对等存储处理器将永远不需要主动获取这一具体填零位图数据信息指示区域。因此,这一存储处理器可以在镜像消息中捎带一个提示,以要求对等存储处理器在数据被镜像后立即返回该填零位图数据信息指示区域的所有令牌。因此,当这一存储处理器需要获取填零位图数据信息指示区域时,它始终具有两个令牌,并且不需要发送附加消息来从对等方请求令牌。
当采用了根据本公开的实施例的用于管理存储系统的方法500后,也可以容易地支持精简配置逻辑单元侵入(trespassing)。
精简配置逻辑单元的所有权可以从一个存储处理器被转移到另一个存储处理器。这被称为“LUN侵入”。假设精简配置逻辑单元从第一存储处理器被侵入到第二存储处理器。我们不需要对填零位图数据信息指示区域令牌采取其他操作。令牌传输将以惰性和渐进模式被完成。由于精简配置逻辑单元已经被侵入到第二存储处理器,因此不会从第一存储处理器向精简配置逻辑单元发出IO。随着从第二存储处理器向精简配置逻辑单元发出IO,第二存储处理器发现它没有用于填零位图数据信息指示区域的令牌,因此它将从第一存储处理器请求令牌。但这仅在第二存储处理器首次访问数据信息指示区域时发生一次。之后,填零位图数据信息指示区域的令牌将一直保留在第二存储处理器上。
以上参照图3至图5描述了根据本公开的实施例的用于管理存储系统的方法500的具体流程和操作。以下结合图6和图7来比较说明根据本公开的实施例的用于管理存储系统的方法500与传统方案的差别。
图6示出了传统方案中的跨存储处理器填零位图冲突的示例600的示意图。
如图6中所示,填零位图200利用64KB的数据信息指示区域而被管理。填零位突块0是覆盖第一个0.5TB的LUN数据空间的第一个填零位图块(64KB)。每个数据块的大小为256MB。因此,填零位图数据信息指示区域覆盖共计2048个数据块。数据块是精简配置逻辑单元的最小分配单元。数据块0被映射到由第一存储处理器拥有的第一精简配置逻辑单元,并且数据块1被映射到由第二存储处理器拥有的第二精简配置逻辑单元。填零位突块0已被写为每位“1”,表明前0.5TB中的所有数据均为零。填零位图200中的一个位覆盖1MB数据:“1”表明1MB数据全为零,“0”表明1MB数据非零。
假设从第一存储处理器向数据块0发出64KB的写入。高速缓存可以对该写入进行处理。首先,尝试获取对填零位突块0的独占访问权,如果填零位突块0数据信息指示区域没有足够的令牌(两个令牌),则需要将令牌请求消息发送给第二存储处理器。而后,检查填零位图块以查看写入目标范围是否被归零,如果对应的位为0,则意味着目标范围未被归零;由于无需更新填零位图块,因此将释放填零位突块0数据信息指示区域;否则,将填零位突块0数据信息指示区域中的对应的位从1更改为0,以指示1MB的数据不再为零。接着,尝试获取对64KB写入数据的数据信息指示区域的独占访问权,并在必要时向对等方请求令牌。然后,将64KB的数据从主机传输到对写入目标范围的数据信息指示区域中,并且将1MB数据中的其余数据写入零。此后,通过将数据镜像到对等存储处理器来提交对64KB的写入数据的数据信息指示区域。随后,通过将填零位图数据镜像到对等存储处理器来提交对填零位突块0数据信息指示区域的数据信息指示区域。至此,写入操作完成。
因此,向归零的范围(数据块0)进行写入需要利用独占访问权来获取和修改对应的填零位图数据信息指示区域。如果本地存储处理器没有用于数据信息指示区域的足够的令牌,则这可能会引发跨存储处理器令牌消息。假设从第一存储处理器向数据块1发出另一64KB的写入。这一写入操作通过需要利用独占访问权来获取填零位突块0数据信息指示区域。它可能需要从第二存储处理器请求令牌。因此,当向通常的那样写入从两个存储处理器并行进入阵列时,两个存储处理器将争用相同的填零位突块0数据信息指示区域。
图7示出了根据本公开的实施例的避免跨存储处理器填零位图冲突的示例700的示意图。
如图7中所示,填零位图200利用一个扇区而被管理,该数据信息指示区域仅覆盖4GB的数据。填零位图数据信息指示区域大小与数据块组的大小对齐。LUN 730中的数据块组由16个数据块组成(16×256MB=4GB),其中数据块组是用于精简配置逻辑单元的基本分配单元。例如,第一数据块组740被分配给第一存储处理器上的第一精简配置逻辑单元710,第二数据块组750被分配给第二存储处理器上的第二精简配置逻辑单元720。填零位图块0(在图7中由标号731-1指示)覆盖第一数据块组740的数据,并且填零位图块1(在图7中由标号731-2指示)覆盖第二数据块组750的数据。去往第一数据块组780的IO 760只能来自第一存储处理器,并且因此对填零位图块0的访问仅限于第一存储处理器;类似地,去往第二数据块组790的IO 770只能来自第二存储处理器,并且因此对填零位图块1的访问仅限于第二存储处理器。因此,填零位图争用被完全消除。
通过以上参考图1至图7的描述,可以看出,根据本公开的实施例的技术方案相对于传统方案具有诸多优点。首先,根据本公开的实施例,针对高速缓存,取决于数据信息指示区域的类型来允许可变大小的数据信息指示区域。填零位图数据信息指示区域的大小至少可以被减少到最小一个扇区。这允许填零位图以扇区的粒度被锁定。同时,针对虚拟逻辑单元110层,通过将数据块组定义为最小数据粒度,使得数据块组的大小与填零位图数据信息指示区域的大小对齐,从而必须原子地从精简配置逻辑单元添加/删除数据块组。这确保去往数据块组的IO将仅从一个存储处理器进入高速缓存。因此,采用本公开的实施例中提供的技术方案,完全消除了跨存储处理器的填零位图访问冲突。这不仅减少了来自IO路径的潜在的跨存储处理器消息通信,并且避免了填零位图200成为系统性能的瓶颈。这种改进尤其有利于导致如先前提及的问题发现实例的示例中的、频繁跨存储处理器进行填零位图200的争用的工作负载。实验结果表明,在IO路径中减少跨存储处理器消息可以将高速缓存卷的IO性能提高8%~10%。
图8图示出了可以用来实施本公开内容的实施例的示例设备800的示意性框图。如图所示,设备800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的计算机程序指令或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序指令,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线904。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理(例如,方法500),可由处理单元801执行。例如,在一些实施例中,方法500可以被实现为计算机软件程序,其被有形地包含于机器可读介质(例如,存储单元808)中。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序被加载到RAM 803并由CPU 801执行时,可以执行上文描述的方法500的一个或多个动作。
本公开可以是方法、设备、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是、但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、设备(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (9)

1.一种用于管理存储系统的方法,包括:
确定所述存储系统中的数据信息指示区域的大小,所述数据信息指示区域指示与包括多个数据块的数据块组有关的内容信息,所述数据块组是用于与所述存储系统相关联的存储处理器访问的最小数据粒度;
确定所述数据信息指示区域的所述大小与所述数据块组的大小之间的对应关系;以及
基于所述数据信息指示区域的所述大小和所述对应关系,确定所述数据块组的所述大小。
2.根据权利要求1所述的方法,其中确定所述存储系统中的数据信息指示区域的大小包括:
将所述数据信息指示区域的所述大小确定为一个或者多个扇区的大小。
3.根据权利要求1所述的方法,其中所述内容信息指示所述数据块组中的数据的填零状态。
4.根据权利要求1所述的方法,还包括:
响应于接收到针对所述数据块组的访问请求,在所述数据信息指示区域中查询与所述数据块组有关的所述内容信息。
5.一种用于管理存储系统的设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
确定所述存储系统中的数据信息指示区域的大小,所述数据信息指示区域指示与包括多个数据块的数据块组有关的内容信息,所述数据块组是用于与所述存储系统相关联的存储处理器访问的最小数据粒度;
确定所述数据信息指示区域的所述大小与所述数据块组的大小之间的对应关系;以及
基于所述数据信息指示区域的所述大小和所述对应关系,确定所述数据块组的所述大小。
6.根据权利要求5所述的设备,其中确定所述存储系统中的数据信息指示区域的大小包括:
将所述数据信息指示区域的所述大小确定为一个或者多个扇区的大小。
7.根据权利要求5所述的设备,其中所述内容信息指示所述数据块组中的数据的填零状态。
8.根据权利要求5所述的设备,其中所述动作还包括:
响应于接收到针对所述数据块组的访问请求,在所述数据信息指示区域中查询与所述数据块组有关的所述内容信息。
9.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行使得机器执行根据权利要求1至4中的任一权利要求所述的方法的步骤。
CN201810802254.3A 2018-07-20 2018-07-20 用于管理存储系统的方法、设备和计算机程序产品 Active CN110737397B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810802254.3A CN110737397B (zh) 2018-07-20 2018-07-20 用于管理存储系统的方法、设备和计算机程序产品
US16/507,359 US11068184B2 (en) 2018-07-20 2019-07-10 Method, device, and computer program product for managing a storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810802254.3A CN110737397B (zh) 2018-07-20 2018-07-20 用于管理存储系统的方法、设备和计算机程序产品

Publications (2)

Publication Number Publication Date
CN110737397A true CN110737397A (zh) 2020-01-31
CN110737397B CN110737397B (zh) 2023-08-11

Family

ID=69162978

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810802254.3A Active CN110737397B (zh) 2018-07-20 2018-07-20 用于管理存储系统的方法、设备和计算机程序产品

Country Status (2)

Country Link
US (1) US11068184B2 (zh)
CN (1) CN110737397B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11271992B2 (en) * 2020-01-22 2022-03-08 EMC IP Holding Company LLC Lazy lock queue reduction for cluster group changes
CN113553207B (zh) 2020-04-24 2024-09-17 伊姆西Ip控股有限责任公司 用于管理跟踪记录的方法、设备和计算机程序产品
US11748313B2 (en) * 2021-10-22 2023-09-05 EMC IP Holding Company LLC Optimizing file-system resource reservation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080109630A1 (en) * 2006-11-02 2008-05-08 Hitachi, Ltd. Storage system, storage unit, and storage management system
US20090222636A1 (en) * 2008-02-29 2009-09-03 Kabushiki Kaisha Toshiba Memory system and memory initializing method
CN102934094A (zh) * 2010-06-16 2013-02-13 微软公司 用于文件系统存储设备的分层分配
CN104106038A (zh) * 2012-03-13 2014-10-15 株式会社日立制作所 具有带有非易失性半导体存储器的非易失性半导体存储设备的存储系统
US9280469B1 (en) * 2012-12-28 2016-03-08 Emc Corporation Accelerating synchronization of certain types of cached data
CN108228647A (zh) * 2016-12-21 2018-06-29 伊姆西Ip控股有限责任公司 用于数据拷贝的方法和设备
US20180185480A1 (en) * 2015-09-02 2018-07-05 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Antibodies specific to human t-cell immunoglobulin and itim domain (tigit)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9152548B2 (en) * 2012-01-17 2015-10-06 Vmware, Inc. Controlling access to a privileged resource in user-mode system level mobile virtualization using a ptrace () system call
US9286007B1 (en) 2013-03-14 2016-03-15 Emc Corporation Unified datapath architecture
US9152353B1 (en) 2013-09-30 2015-10-06 Emc Corporation Verifying the consistency of slice allocation metadata
US9881016B1 (en) 2014-12-31 2018-01-30 EMC IP Holding Company LLC Unified slice map volume
US9916090B1 (en) * 2015-09-22 2018-03-13 EMC IP Holding Company LLC Techniques for dynamically adjusting slice size
US9933945B1 (en) 2016-09-30 2018-04-03 EMC IP Holding Company LLC Efficiently shrinking a dynamically-sized volume
US10140038B2 (en) * 2016-11-21 2018-11-27 International Business Machines Corporation Utilization of a thin provision grid storage array
US20180314427A1 (en) * 2017-04-27 2018-11-01 EMC IP Holding Company LLC System and method for storage system autotiering using adaptive granularity
US10613787B2 (en) * 2018-01-31 2020-04-07 EMC IP Holding Company LLC Techniques for rebalancing storage between subspaces
CN111124250B (zh) * 2018-10-30 2023-11-21 伊姆西Ip控股有限责任公司 用于管理存储空间的方法、设备和计算机程序产品

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080109630A1 (en) * 2006-11-02 2008-05-08 Hitachi, Ltd. Storage system, storage unit, and storage management system
US20090222636A1 (en) * 2008-02-29 2009-09-03 Kabushiki Kaisha Toshiba Memory system and memory initializing method
CN102934094A (zh) * 2010-06-16 2013-02-13 微软公司 用于文件系统存储设备的分层分配
CN104106038A (zh) * 2012-03-13 2014-10-15 株式会社日立制作所 具有带有非易失性半导体存储器的非易失性半导体存储设备的存储系统
US9280469B1 (en) * 2012-12-28 2016-03-08 Emc Corporation Accelerating synchronization of certain types of cached data
US20180185480A1 (en) * 2015-09-02 2018-07-05 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Antibodies specific to human t-cell immunoglobulin and itim domain (tigit)
CN108228647A (zh) * 2016-12-21 2018-06-29 伊姆西Ip控股有限责任公司 用于数据拷贝的方法和设备

Also Published As

Publication number Publication date
US20200026451A1 (en) 2020-01-23
CN110737397B (zh) 2023-08-11
US11068184B2 (en) 2021-07-20

Similar Documents

Publication Publication Date Title
US10523786B2 (en) I/O bandwidth reduction using storage-level common page information
US10678432B1 (en) User space and kernel space access to memory devices through private queues
US9043287B2 (en) Deduplication in an extent-based architecture
US10976932B2 (en) Method for providing a client device access to a plurality of remote storage devices
US20170344575A1 (en) Methods for facilitating external cache in a cloud storage environment and devices thereof
US20150177990A1 (en) Blob pools, selectors, and command set implemented within a memory appliance for accessing memory
US8656119B2 (en) Storage system, control program and storage system control method
CN111124951A (zh) 管理数据访问的方法、设备和计算机程序产品
US11226778B2 (en) Method, apparatus and computer program product for managing metadata migration
EP3276494B1 (en) Memory space management
CN110737397A (zh) 用于管理存储系统的方法、设备和计算机程序产品
US11048422B2 (en) Method, device, and computer readable storage medium for allocating access rights to data among storage processors
US10936499B2 (en) Method, device and computer programme product for storage management
EP4439312A1 (en) Data storage method and system, storage access configuration method and related device
CN115129625A (zh) 外围设备中的增强的存储协议仿真
US11100008B2 (en) Efficient memory usage for snapshots
US10528474B2 (en) Pre-allocating cache resources for a range of tracks in anticipation of access requests to the range of tracks
CN111857557A (zh) Raid类型转换的方法、设备和计算机程序产品
US20210133098A1 (en) Efficient memory usage for snapshots based on past memory usage
JPH04313126A (ja) 分散ファイルシステムのファイル入出力方式
CN117059147A (zh) 以高速缓存行粒度跟踪存储器修改
US11068299B1 (en) Managing file system metadata using persistent cache
CN111857547B (zh) 用于管理数据存储的方法、设备和计算机可读介质
US10678701B2 (en) Direct read control in a data storage system
CN117242763A (zh) 用于缓存文件系统内部结构的网络接口卡

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant