CN111367858B - 一种Ceph集群OSD加速盘扩容方法 - Google Patents

一种Ceph集群OSD加速盘扩容方法 Download PDF

Info

Publication number
CN111367858B
CN111367858B CN202010161254.7A CN202010161254A CN111367858B CN 111367858 B CN111367858 B CN 111367858B CN 202010161254 A CN202010161254 A CN 202010161254A CN 111367858 B CN111367858 B CN 111367858B
Authority
CN
China
Prior art keywords
osd
ceph
partition
mode
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010161254.7A
Other languages
English (en)
Other versions
CN111367858A (zh
Inventor
宋伟
蔡卫卫
谢涛涛
申嘉童
赖振
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Huimao Electronic Port Co Ltd
Original Assignee
Shandong Huimao Electronic Port Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Huimao Electronic Port Co Ltd filed Critical Shandong Huimao Electronic Port Co Ltd
Priority to CN202010161254.7A priority Critical patent/CN111367858B/zh
Publication of CN111367858A publication Critical patent/CN111367858A/zh
Application granted granted Critical
Publication of CN111367858B publication Critical patent/CN111367858B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/11File system administration, e.g. details of archiving or snapshots
    • G06F16/119Details of migration of file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/182Distributed file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种Ceph集群OSD加速盘扩容方法,属于云计算领域,本发明要解决的技术问题为如何在不重新部署Ceph集群的情况下,实现扩展已部署OSD的block.db或block.wal的空间大小,采用的技术方案为:该方法是根据Ceph集群OSD的管理方式选择加速盘扩容采用磁盘分区方式或逻辑卷方式,加速盘扩容后重启OSD服务,检测Ceph集群状态,确保OSD服务采用新的加速空间;其中,当OSD加速设备采用磁盘分区方式时,通过新建分区并迁移老数据、扩展BlueFS文件系统方式扩展加速盘空间大小;当OSD加速设备采用逻辑卷方式时,通过扩展卷组、扩展逻辑卷、扩展BlueFS文件系统方式扩展加速盘空间大小。

Description

一种Ceph集群OSD加速盘扩容方法
技术领域
本发明涉及云计算领域,具体地说是一种Ceph集群OSD加速盘扩容方法。
背景技术
Ceph是一个分布式存储系统,它具有可靠、智能、分布式等特性,实现高可靠、高可扩展、高性能、高自动化等功能,并最终存储用户数据。
BlueStore是在底层裸设备上建立的存储系统,内建了RocksDB key/value数据库用于管理内部元数据。一个小型的内部接口组件称为BlueFS实现了类似文件系统的接口,以便提供足够功能让RocksDB来存储它的文件,并和BlueStore共享相同的裸设备。BlueStore可以管理主要3类设备:main主设备即OSD磁盘设备,db设备存储对象的元数据(RocksDB),wal设备存储RocksDB的预写日志;三类设备是同一类型时,对象数据、db、wal都放在一起由BlueStore自行管理;不同类型时wal、db可放在高速设备单独存储,提高Ceph集群性能。
RocksDB使用一套日志结构的数据库引擎,为了更好的性能,这套引擎是用C++编写的。Key和value可以是任意大小的字节流。RocksDB为快速而又低延迟的存储设备(例如闪存或者高速硬盘)而特殊优化处理。RocksDB最大限度的发挥闪存和RAM的高度率读写性能;基于此Ceph的BlueStore采用此数据库进行元数据信息的存储。
Ceph-volume是Ceph自身提供的一个管理OSD的插件工具。通过此工具可以实现OSD与lvm或physical disks等不同的device技术部署在一起并进行管理,具有支持设备类型多样,管理灵活,扩展方便等优点。
Kubernetes是一个开源容器编排引擎,用于容器化应用的自动化部署、扩展和管理。
在云计算环境下,基础设施层、平台数据层都有着基础的数据持久存储要求,Ceph分布式存储具有高可靠、易扩展、强一致性等特点,在云计算环境下得到广泛的应用。Ceph从L(luminous)版本开始OSD支持以BlueStore的模式进行对象数据的管理,即对象数据存储在裸设备中,对象元数据或write ahead log可存储在性能更高的设备上,以提高Ceph存储的整体性能。根据Ceph官方的推荐在块存储使用场景下Block DB的存储容量应是OSD设备容量的1%-2%;RGW对象存储使用场景下Block DB存储容量应是OSD设备容量的4%左右或更高。实际在Ceph集群部署及使用过程中存在使用加速盘做为Block DB存储的Ceph环境中DB数据盘大小设置过小不合理的情况。故如何在不重新部署Ceph集群的情况下,实现扩展已部署OSD的block.db或block.wal的空间大小是目前亟待解决的技术问题。
专利号为CN109710587A的专利文献公开了一种基于Ceph的数据分层方法,数据被存储在存储介质中,存储介质包括一个或多个第一存储介质和一个或多个第二存储介质,第一存储介质具有第一存取速度,第二存储介质具有第二存取速度,第一存取速度大于第二存取速度,方法包括:由一个OSD管理一个第一存储介质和一个第二存储介质。但是该技术方案无法在不重新部署Ceph集群的情况下,实现扩展已部署OSD的block.db或block.wal的空间大小。
发明内容
本发明的技术任务是提供一种Ceph集群OSD加速盘扩容方法,来解决如何在不重新部署Ceph集群的情况下,实现扩展已部署OSD的block.db或block.wal的空间大小的问题。
本发明的技术任务是按以下方式实现的,一种Ceph集群OSD加速盘扩容方法,该方法是根据Ceph集群OSD的管理方式选择加速盘扩容采用磁盘分区方式或逻辑卷方式,加速盘扩容后重启OSD服务,检测Ceph集群状态,确保OSD服务采用新的加速空间;
其中,当OSD加速设备采用磁盘分区方式时,通过新建分区并迁移老数据、扩展BlueFS文件系统方式扩展加速盘空间大小;
当OSD加速设备采用逻辑卷方式时,通过扩展卷组、扩展逻辑卷、扩展BlueFS文件系统方式扩展加速盘空间大小。
作为优选,所述Ceph集群OSD的管理方式指磁盘分区方式或逻辑卷方式对OSD及加速设备的管理。
更优地,所述OSD加速设备采用磁盘分区方式通过Ceph-disk工具实现扩容,具体如下:
(1)、通过sgdisk--print确定加速盘是否有可用空间;
(2)、通过ceph-disk命令查询确定OSD加速设备使用的加速盘对应的分区;
(3)、通过ceph-bluestore-tool show-label查询OSD加速设备对应的block.dbblock.wal元数据信息;
(4)、通过sgdisk-i分区号查询出原分区对应的表信息;
(5)、通过sgdisk创建新的分区的block.db和block.wal参数并指定新的大小和新的名称,typecode中uuid使用原分区的uuid信息;分区完毕后通过partprobe更新设备分区表信息;
(6)、停止OSD服务,通过dd把原分区数据拷贝到新分区中;
(7)、通过sgdisk删除原分区并用原分区uuid号设置在新的分区中;通过partprobe跟新设置后的设备分区表;
(8)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal分区进行扩展并更新BlueFS文件系统;
(9)、通过ceph-bluestore-tool show-label查看扩展后的block.db及block.wal大小;
(10)、启动OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
更优地,所述步骤(3)中OSD加速设备对应的block.db block.wal元数据信息包括:osd_uuid信息、block.db size、block.wal size。
更优地,所述步骤(4)中原分区对应的表信息包括Partition GUID code、分区名称、大小、起始扇区位置。
作为优选,所述BlueFS文件系统是BlueStore内部的一个微型用户态,BlueStore采用RocksDB管理对象元数据。
更优地,所述OSD加速设备采用逻辑卷方式通过Ceph-volume工具实现扩容,具体如下:
(一)、查询要扩容节点OSD的ceph-osd-dbs卷组是否有剩余空间或有新的加速盘设备供扩容使用;
(二)、对新加入设备进行pv创建并加入到vg卷组中;
(三)、对OSD对应的db及wal对应的lv通过lvextend进行扩展;
(四)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal lv进行扩展并更新BlueFS文件系统;
(五)、通过ceph-bluestore-tool show-label查看扩展后的db及wal大小;
(六)、重启OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
更优地,所述步骤(三)中db及wal对应的lv通过Ceph-volume部署,包括手动通过Ceph-volume部署的Ceph集群和基于Kubernetes容器方式部署的Ceph集群。
本发明的Ceph集群OSD加速盘扩容方法具有以下优点:
(一)本发明通过新增加速盘设备,扩展到DB的vg卷组中,对每个OSD使用的db lv进行容量扩展以及对每个OSD使用的Block DB BlueFS文件系统进行扩展,可以对已运行的Ceph集群进行OSD BlueStore加速盘的扩展,达到提升Ceph集群性能的目的;
(二)本发明实现在不重新部署Ceph集群的情况下,扩展已部署OSD的block.db或block.wal的空间大小,具有操作可行性强、优化Ceph集群性能的优点;
(三)OSD对应的加速盘设备是使用分区方式进行管理,通过新建加速盘的分区空间并停止OSD服务后迁移老数据的方式进行扩展,扩展BlueFS文件系统后,启动OSD服务完成扩展;OSD加速盘设备通过逻辑卷管理,通过扩展加速设备对应的卷组空间、逻辑卷空间、BlueFS文件系统扩展;加速盘扩展后为了使OSD采用新的加速空间,要重启OSD服务,重启完毕后查看Ceph集群状态。
附图说明
下面结合附图对本发明进一步说明。
附图1为BlueStore技术原理图;
附图2为Ceph集群OSD加速盘扩容方法的示意图。
具体实施方式
参照说明书附图和具体实施例对本发明的一种Ceph集群OSD加速盘扩容方法作以下详细地说明。
实施例:
本发明的Ceph集群OSD加速盘扩容方法,包括以下步骤:
S1、根据Ceph集群OSD的管理方式选择加速盘扩容方式:
①、OSD加速设备采用磁盘分区方式时,采用新建分区并迁移老数据、扩展BlueFS文件系统方式扩展加速盘空间大小;
②、OSD加速设备采用逻辑卷方式时,采用扩展卷组、扩展逻辑卷、扩展BlueFS文件系统方式扩展;
S2、重启扩展后的OSD服务,检测Ceph集群状态。
如附图1所示,Ceph使用的BlueStore技术原理,为了提高Ceph的写入性能,Ceph社区开发了BlueStore这一存储后端,让数据绕开本地文件系统直接操作裸盘,减少了IO路径。BlueStore采用RocksDB来管理对象元数据,因此为了运行RocksDB,BlueStore内部有一个微型用户态的文件系统-BlueFS。因此借助RocksDB,Ceph可以很方便的获取和枚举所有的对象数据。
如附图2所示,针对Ceph环境下OSD对DB/WAL加速设备不同管理方式下的扩展方式,Ceph Block.db Block.wal是分区模式下主要通过新建分区并通过DD进行数据迁移、新分区沿用老分区uuid标识、扩展BlueFS文件系统,实现DB/WAL的扩展。Block.DB/WAL是逻辑卷的模式下主要通过扩展卷组、扩展逻辑卷、扩展BlueFS文件系统实现DB/WAL的扩展。
由于Ceph部署形式灵活,对OSD的管理主要采用Ceph-disk工具和Ceph-volume工具,针对两种形式部署管理的OSD加速盘,扩展处理方式不同。
具体如下:
Ceph加速盘是Ceph-disk部署db、wal对应分区:
(1)、通过sgdisk--print确定加速盘是否有可用空间;
(2)、通过ceph-disk命令查询确定osd设备使用的加速盘对应的分区;
(3)、通过ceph-bluestore-tool show-label查询osd对应的block.db block.wal元数据信息,主要包括:osd_uuid信息、block.db size、block.wal size;
(4)、通过sgdisk-i分区号查询出原分区对应的表信息:包括Partition GUIDcode、分区名称、大小、起始扇区位置等;
(5)、通过sgdisk创建新的分区的block.db、block.wal参数指定新的大小、新的名称、typecode中uuid使用原分区的uuid信息;分区完毕后通过partprobe更新设备分区表信息;
(6)、停止OSD服务,通过dd把原分区数据拷贝到新分区中;
(7)、通过sgdisk删除原分区并用老的分区uuid号设置在新的分区中;通过partprobe跟新设置后的设备分区表;
(8)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal分区进行扩展并更新BlueFS文件系统;
(9)、通过ceph-bluestore-tool show-label查看扩展后的db及wal大小;
(10)、启动OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
Ceph OSD及加速盘是使用Ceph-volume部署db、wal对应lv(包括手动通过Ceph-volume部署的Ceph集群、基于Kubernetes容器方式部署的Ceph集群):
(一)、查询要扩容节点OSD的ceph-osd-dbs卷组是否有剩余空间,或有新的加速盘设备供扩容使用;
(二)、对新加入设备进行pv创建并加入到vg卷组中;
(三)、对osd对应的db及wal对应的lv通过lvextend进行扩展;
(四)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal lv进行扩展并更新BlueFS文件系统;
(五)、通过ceph-bluestore-tool show-label查看扩展后的db及wal大小;
(六)、重启OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (1)

1.一种Ceph集群OSD加速盘扩容方法,其特征在于,该方法是根据Ceph集群OSD的管理方式选择加速盘扩容采用磁盘分区方式或逻辑卷方式,加速盘扩容后重启OSD服务,检测Ceph集群状态,确保OSD服务采用新的加速空间;
其中,当OSD加速设备采用磁盘分区方式时,通过新建分区并迁移老数据、扩展BlueFS文件系统方式扩展加速盘空间大小;
当OSD加速设备采用逻辑卷方式时,通过扩展卷组、扩展逻辑卷、扩展BlueFS文件系统方式扩展加速盘空间大小;
Ceph集群OSD的管理方式指磁盘分区方式或逻辑卷方式对OSD及加速设备的管理;
OSD加速设备采用磁盘分区方式通过Ceph-disk工具实现扩容,具体如下:
(1)、通过sgdisk--print确定加速盘是否有可用空间;
(2)、通过ceph-disk命令查询确定OSD加速设备使用的加速盘对应的分区;
(3)、通过ceph-bluestore-tool show-label 查询OSD加速设备对应的block.dbblock.wal元数据信息;其中,OSD加速设备对应的block.db block.wal元数据信息包括:osd_uuid信息、block.db size、block.wal size;
(4)、通过sgdisk -i 分区号查询出原分区对应的表信息;其中,原分区对应的表信息包括Partition GUID code、分区名称、大小、起始扇区位置;
(5)、通过sgdisk创建新的分区的block.db和block.wal参数并指定新的大小和新的名称,typecode中uuid使用原分区的uuid信息;分区完毕后通过partprobe更新设备分区表信息;
(6)、停止OSD服务,通过dd把原分区数据拷贝到新分区中;
(7)、通过sgdisk删除原分区并用原分区uuid号设置在新的分区中;通过partprobe更新设置后的设备分区表;
(8)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal分区进行扩展并更新BlueFS文件系统;
(9)、通过ceph-bluestore-tool show-label查看扩展后的block.db及block.wal大小;
(10)、启动OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕;
BlueFS文件系统是BlueStore内部的一个微型用户态,BlueStore采用RocksDB管理对象元数据;
OSD加速设备采用逻辑卷方式通过Ceph-volume工具实现扩容,具体如下:
(一)、查询要扩容节点OSD的ceph-osd-dbs卷组是否有剩余空间或有新的加速盘设备供扩容使用;
(二)、对新加入设备进行pv创建并加入到vg卷组中;
(三)、对OSD对应的db及wal对应的lv通过lvextend进行扩展;其中,db及wal对应的lv通过Ceph-volume部署,包括手动通过Ceph-volume部署的Ceph集群和基于Kubernetes容器方式部署的Ceph集群;
(四)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal lv进行扩展并更新BlueFS文件系统;
(五)、通过ceph-bluestore-tool show-label查看扩展后的db及wal大小;
(六)、重启OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
CN202010161254.7A 2020-03-10 2020-03-10 一种Ceph集群OSD加速盘扩容方法 Active CN111367858B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010161254.7A CN111367858B (zh) 2020-03-10 2020-03-10 一种Ceph集群OSD加速盘扩容方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010161254.7A CN111367858B (zh) 2020-03-10 2020-03-10 一种Ceph集群OSD加速盘扩容方法

Publications (2)

Publication Number Publication Date
CN111367858A CN111367858A (zh) 2020-07-03
CN111367858B true CN111367858B (zh) 2024-02-20

Family

ID=71206713

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010161254.7A Active CN111367858B (zh) 2020-03-10 2020-03-10 一种Ceph集群OSD加速盘扩容方法

Country Status (1)

Country Link
CN (1) CN111367858B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105554132A (zh) * 2015-12-23 2016-05-04 浪潮集团有限公司 一种Hadoop在线扩容的方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105554132A (zh) * 2015-12-23 2016-05-04 浪潮集团有限公司 一种Hadoop在线扩容的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
pyr."ceph(luminous)-Bluestore ceph-bluestore-tool工具".《CSDN》.2018,第1页. *
康文杰 ; 王勇 ; 俸皓 ; .云平台中MySQL数据库高可用性的设计与实现.计算机工程与设计.2018,(01),全文. *
海底苍鹰."Linux系统下对硬盘分区进行扩容的方法总结".《脚本之家社区》.2015,第1-8页. *
麦子迈."Ceph开发每周谈 Vol 99 ceph-volume 使用 LVM 管理介质".《XSKY星辰天合》.2017,第1-2页. *

Also Published As

Publication number Publication date
CN111367858A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
US7849282B2 (en) Filesystem building method
US7213116B2 (en) Method and apparatus for mirroring objects between storage systems
US8239648B2 (en) Reclamation of thin provisioned disk storage
US6785693B2 (en) Management of multiple links to a file in a file system
US20060047926A1 (en) Managing multiple snapshot copies of data
US10852981B2 (en) System for migrating virtual tape volumes between filesystems
US7266654B2 (en) Storage system, server apparatus, and method for creating a plurality of snapshots
US8156271B2 (en) Systems and methods for storage management in a data processing device
US20140040590A1 (en) Method and system for managing large write-once tables in shadow page databases
WO2017050064A1 (zh) 共享内存数据库的内存管理方法及装置
CN109902034A (zh) 快照创建方法、装置、电子设备及机器可读存储介质
JP4225206B2 (ja) 記憶装置の複製データ格納システムと複製データ格納プログラム
CN104461384A (zh) 一种数据写入方法及存储设备
CN104808953A (zh) 控制数据存储的方法、装置及移动终端
CN107798063A (zh) 快照处理方法和快照处理装置
CN111367858B (zh) 一种Ceph集群OSD加速盘扩容方法
CN111400273B (zh) 数据库扩容方法、装置、电子设备及机器可读存储介质
US11176089B2 (en) Systems and methods for implementing dynamic file systems
CN101308472B (zh) 镜像卷的初始同步方法和控制装置
CN109558082B (zh) 分布式文件系统
CN113204520B (zh) 一种基于分布式文件系统的遥感数据快速并发读写方法
JP2012058863A (ja) ディスク装置、および、ディスク装置へのデータ複製方法、プログラム
CN114328417A (zh) 一种案例数据快速存取系统
CN109343928B (zh) 虚拟化集群中虚拟机的虚拟内存文件重定向方法及其系统
EP3436990A1 (en) Systems and methods for enabling modifications of multiple data objects within a file system volume

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant