CN111367858B - 一种Ceph集群OSD加速盘扩容方法 - Google Patents
一种Ceph集群OSD加速盘扩容方法 Download PDFInfo
- Publication number
- CN111367858B CN111367858B CN202010161254.7A CN202010161254A CN111367858B CN 111367858 B CN111367858 B CN 111367858B CN 202010161254 A CN202010161254 A CN 202010161254A CN 111367858 B CN111367858 B CN 111367858B
- Authority
- CN
- China
- Prior art keywords
- osd
- ceph
- partition
- mode
- acceleration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001133 acceleration Effects 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000005192 partition Methods 0.000 claims abstract description 70
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000011982 device technology Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/11—File system administration, e.g. details of archiving or snapshots
- G06F16/119—Details of migration of file systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
- G06F16/182—Distributed file systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0631—Configuration or reconfiguration of storage systems by allocating resources to storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
- G06F3/0644—Management of space entities, e.g. partitions, extents, pools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种Ceph集群OSD加速盘扩容方法,属于云计算领域,本发明要解决的技术问题为如何在不重新部署Ceph集群的情况下,实现扩展已部署OSD的block.db或block.wal的空间大小,采用的技术方案为:该方法是根据Ceph集群OSD的管理方式选择加速盘扩容采用磁盘分区方式或逻辑卷方式,加速盘扩容后重启OSD服务,检测Ceph集群状态,确保OSD服务采用新的加速空间;其中,当OSD加速设备采用磁盘分区方式时,通过新建分区并迁移老数据、扩展BlueFS文件系统方式扩展加速盘空间大小;当OSD加速设备采用逻辑卷方式时,通过扩展卷组、扩展逻辑卷、扩展BlueFS文件系统方式扩展加速盘空间大小。
Description
技术领域
本发明涉及云计算领域,具体地说是一种Ceph集群OSD加速盘扩容方法。
背景技术
Ceph是一个分布式存储系统,它具有可靠、智能、分布式等特性,实现高可靠、高可扩展、高性能、高自动化等功能,并最终存储用户数据。
BlueStore是在底层裸设备上建立的存储系统,内建了RocksDB key/value数据库用于管理内部元数据。一个小型的内部接口组件称为BlueFS实现了类似文件系统的接口,以便提供足够功能让RocksDB来存储它的文件,并和BlueStore共享相同的裸设备。BlueStore可以管理主要3类设备:main主设备即OSD磁盘设备,db设备存储对象的元数据(RocksDB),wal设备存储RocksDB的预写日志;三类设备是同一类型时,对象数据、db、wal都放在一起由BlueStore自行管理;不同类型时wal、db可放在高速设备单独存储,提高Ceph集群性能。
RocksDB使用一套日志结构的数据库引擎,为了更好的性能,这套引擎是用C++编写的。Key和value可以是任意大小的字节流。RocksDB为快速而又低延迟的存储设备(例如闪存或者高速硬盘)而特殊优化处理。RocksDB最大限度的发挥闪存和RAM的高度率读写性能;基于此Ceph的BlueStore采用此数据库进行元数据信息的存储。
Ceph-volume是Ceph自身提供的一个管理OSD的插件工具。通过此工具可以实现OSD与lvm或physical disks等不同的device技术部署在一起并进行管理,具有支持设备类型多样,管理灵活,扩展方便等优点。
Kubernetes是一个开源容器编排引擎,用于容器化应用的自动化部署、扩展和管理。
在云计算环境下,基础设施层、平台数据层都有着基础的数据持久存储要求,Ceph分布式存储具有高可靠、易扩展、强一致性等特点,在云计算环境下得到广泛的应用。Ceph从L(luminous)版本开始OSD支持以BlueStore的模式进行对象数据的管理,即对象数据存储在裸设备中,对象元数据或write ahead log可存储在性能更高的设备上,以提高Ceph存储的整体性能。根据Ceph官方的推荐在块存储使用场景下Block DB的存储容量应是OSD设备容量的1%-2%;RGW对象存储使用场景下Block DB存储容量应是OSD设备容量的4%左右或更高。实际在Ceph集群部署及使用过程中存在使用加速盘做为Block DB存储的Ceph环境中DB数据盘大小设置过小不合理的情况。故如何在不重新部署Ceph集群的情况下,实现扩展已部署OSD的block.db或block.wal的空间大小是目前亟待解决的技术问题。
专利号为CN109710587A的专利文献公开了一种基于Ceph的数据分层方法,数据被存储在存储介质中,存储介质包括一个或多个第一存储介质和一个或多个第二存储介质,第一存储介质具有第一存取速度,第二存储介质具有第二存取速度,第一存取速度大于第二存取速度,方法包括:由一个OSD管理一个第一存储介质和一个第二存储介质。但是该技术方案无法在不重新部署Ceph集群的情况下,实现扩展已部署OSD的block.db或block.wal的空间大小。
发明内容
本发明的技术任务是提供一种Ceph集群OSD加速盘扩容方法,来解决如何在不重新部署Ceph集群的情况下,实现扩展已部署OSD的block.db或block.wal的空间大小的问题。
本发明的技术任务是按以下方式实现的,一种Ceph集群OSD加速盘扩容方法,该方法是根据Ceph集群OSD的管理方式选择加速盘扩容采用磁盘分区方式或逻辑卷方式,加速盘扩容后重启OSD服务,检测Ceph集群状态,确保OSD服务采用新的加速空间;
其中,当OSD加速设备采用磁盘分区方式时,通过新建分区并迁移老数据、扩展BlueFS文件系统方式扩展加速盘空间大小;
当OSD加速设备采用逻辑卷方式时,通过扩展卷组、扩展逻辑卷、扩展BlueFS文件系统方式扩展加速盘空间大小。
作为优选,所述Ceph集群OSD的管理方式指磁盘分区方式或逻辑卷方式对OSD及加速设备的管理。
更优地,所述OSD加速设备采用磁盘分区方式通过Ceph-disk工具实现扩容,具体如下:
(1)、通过sgdisk--print确定加速盘是否有可用空间;
(2)、通过ceph-disk命令查询确定OSD加速设备使用的加速盘对应的分区;
(3)、通过ceph-bluestore-tool show-label查询OSD加速设备对应的block.dbblock.wal元数据信息;
(4)、通过sgdisk-i分区号查询出原分区对应的表信息;
(5)、通过sgdisk创建新的分区的block.db和block.wal参数并指定新的大小和新的名称,typecode中uuid使用原分区的uuid信息;分区完毕后通过partprobe更新设备分区表信息;
(6)、停止OSD服务,通过dd把原分区数据拷贝到新分区中;
(7)、通过sgdisk删除原分区并用原分区uuid号设置在新的分区中;通过partprobe跟新设置后的设备分区表;
(8)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal分区进行扩展并更新BlueFS文件系统;
(9)、通过ceph-bluestore-tool show-label查看扩展后的block.db及block.wal大小;
(10)、启动OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
更优地,所述步骤(3)中OSD加速设备对应的block.db block.wal元数据信息包括:osd_uuid信息、block.db size、block.wal size。
更优地,所述步骤(4)中原分区对应的表信息包括Partition GUID code、分区名称、大小、起始扇区位置。
作为优选,所述BlueFS文件系统是BlueStore内部的一个微型用户态,BlueStore采用RocksDB管理对象元数据。
更优地,所述OSD加速设备采用逻辑卷方式通过Ceph-volume工具实现扩容,具体如下:
(一)、查询要扩容节点OSD的ceph-osd-dbs卷组是否有剩余空间或有新的加速盘设备供扩容使用;
(二)、对新加入设备进行pv创建并加入到vg卷组中;
(三)、对OSD对应的db及wal对应的lv通过lvextend进行扩展;
(四)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal lv进行扩展并更新BlueFS文件系统;
(五)、通过ceph-bluestore-tool show-label查看扩展后的db及wal大小;
(六)、重启OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
更优地,所述步骤(三)中db及wal对应的lv通过Ceph-volume部署,包括手动通过Ceph-volume部署的Ceph集群和基于Kubernetes容器方式部署的Ceph集群。
本发明的Ceph集群OSD加速盘扩容方法具有以下优点:
(一)本发明通过新增加速盘设备,扩展到DB的vg卷组中,对每个OSD使用的db lv进行容量扩展以及对每个OSD使用的Block DB BlueFS文件系统进行扩展,可以对已运行的Ceph集群进行OSD BlueStore加速盘的扩展,达到提升Ceph集群性能的目的;
(二)本发明实现在不重新部署Ceph集群的情况下,扩展已部署OSD的block.db或block.wal的空间大小,具有操作可行性强、优化Ceph集群性能的优点;
(三)OSD对应的加速盘设备是使用分区方式进行管理,通过新建加速盘的分区空间并停止OSD服务后迁移老数据的方式进行扩展,扩展BlueFS文件系统后,启动OSD服务完成扩展;OSD加速盘设备通过逻辑卷管理,通过扩展加速设备对应的卷组空间、逻辑卷空间、BlueFS文件系统扩展;加速盘扩展后为了使OSD采用新的加速空间,要重启OSD服务,重启完毕后查看Ceph集群状态。
附图说明
下面结合附图对本发明进一步说明。
附图1为BlueStore技术原理图;
附图2为Ceph集群OSD加速盘扩容方法的示意图。
具体实施方式
参照说明书附图和具体实施例对本发明的一种Ceph集群OSD加速盘扩容方法作以下详细地说明。
实施例:
本发明的Ceph集群OSD加速盘扩容方法,包括以下步骤:
S1、根据Ceph集群OSD的管理方式选择加速盘扩容方式:
①、OSD加速设备采用磁盘分区方式时,采用新建分区并迁移老数据、扩展BlueFS文件系统方式扩展加速盘空间大小;
②、OSD加速设备采用逻辑卷方式时,采用扩展卷组、扩展逻辑卷、扩展BlueFS文件系统方式扩展;
S2、重启扩展后的OSD服务,检测Ceph集群状态。
如附图1所示,Ceph使用的BlueStore技术原理,为了提高Ceph的写入性能,Ceph社区开发了BlueStore这一存储后端,让数据绕开本地文件系统直接操作裸盘,减少了IO路径。BlueStore采用RocksDB来管理对象元数据,因此为了运行RocksDB,BlueStore内部有一个微型用户态的文件系统-BlueFS。因此借助RocksDB,Ceph可以很方便的获取和枚举所有的对象数据。
如附图2所示,针对Ceph环境下OSD对DB/WAL加速设备不同管理方式下的扩展方式,Ceph Block.db Block.wal是分区模式下主要通过新建分区并通过DD进行数据迁移、新分区沿用老分区uuid标识、扩展BlueFS文件系统,实现DB/WAL的扩展。Block.DB/WAL是逻辑卷的模式下主要通过扩展卷组、扩展逻辑卷、扩展BlueFS文件系统实现DB/WAL的扩展。
由于Ceph部署形式灵活,对OSD的管理主要采用Ceph-disk工具和Ceph-volume工具,针对两种形式部署管理的OSD加速盘,扩展处理方式不同。
具体如下:
Ceph加速盘是Ceph-disk部署db、wal对应分区:
(1)、通过sgdisk--print确定加速盘是否有可用空间;
(2)、通过ceph-disk命令查询确定osd设备使用的加速盘对应的分区;
(3)、通过ceph-bluestore-tool show-label查询osd对应的block.db block.wal元数据信息,主要包括:osd_uuid信息、block.db size、block.wal size;
(4)、通过sgdisk-i分区号查询出原分区对应的表信息:包括Partition GUIDcode、分区名称、大小、起始扇区位置等;
(5)、通过sgdisk创建新的分区的block.db、block.wal参数指定新的大小、新的名称、typecode中uuid使用原分区的uuid信息;分区完毕后通过partprobe更新设备分区表信息;
(6)、停止OSD服务,通过dd把原分区数据拷贝到新分区中;
(7)、通过sgdisk删除原分区并用老的分区uuid号设置在新的分区中;通过partprobe跟新设置后的设备分区表;
(8)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal分区进行扩展并更新BlueFS文件系统;
(9)、通过ceph-bluestore-tool show-label查看扩展后的db及wal大小;
(10)、启动OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
Ceph OSD及加速盘是使用Ceph-volume部署db、wal对应lv(包括手动通过Ceph-volume部署的Ceph集群、基于Kubernetes容器方式部署的Ceph集群):
(一)、查询要扩容节点OSD的ceph-osd-dbs卷组是否有剩余空间,或有新的加速盘设备供扩容使用;
(二)、对新加入设备进行pv创建并加入到vg卷组中;
(三)、对osd对应的db及wal对应的lv通过lvextend进行扩展;
(四)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal lv进行扩展并更新BlueFS文件系统;
(五)、通过ceph-bluestore-tool show-label查看扩展后的db及wal大小;
(六)、重启OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (1)
1.一种Ceph集群OSD加速盘扩容方法,其特征在于,该方法是根据Ceph集群OSD的管理方式选择加速盘扩容采用磁盘分区方式或逻辑卷方式,加速盘扩容后重启OSD服务,检测Ceph集群状态,确保OSD服务采用新的加速空间;
其中,当OSD加速设备采用磁盘分区方式时,通过新建分区并迁移老数据、扩展BlueFS文件系统方式扩展加速盘空间大小;
当OSD加速设备采用逻辑卷方式时,通过扩展卷组、扩展逻辑卷、扩展BlueFS文件系统方式扩展加速盘空间大小;
Ceph集群OSD的管理方式指磁盘分区方式或逻辑卷方式对OSD及加速设备的管理;
OSD加速设备采用磁盘分区方式通过Ceph-disk工具实现扩容,具体如下:
(1)、通过sgdisk--print确定加速盘是否有可用空间;
(2)、通过ceph-disk命令查询确定OSD加速设备使用的加速盘对应的分区;
(3)、通过ceph-bluestore-tool show-label 查询OSD加速设备对应的block.dbblock.wal元数据信息;其中,OSD加速设备对应的block.db block.wal元数据信息包括:osd_uuid信息、block.db size、block.wal size;
(4)、通过sgdisk -i 分区号查询出原分区对应的表信息;其中,原分区对应的表信息包括Partition GUID code、分区名称、大小、起始扇区位置;
(5)、通过sgdisk创建新的分区的block.db和block.wal参数并指定新的大小和新的名称,typecode中uuid使用原分区的uuid信息;分区完毕后通过partprobe更新设备分区表信息;
(6)、停止OSD服务,通过dd把原分区数据拷贝到新分区中;
(7)、通过sgdisk删除原分区并用原分区uuid号设置在新的分区中;通过partprobe更新设置后的设备分区表;
(8)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal分区进行扩展并更新BlueFS文件系统;
(9)、通过ceph-bluestore-tool show-label查看扩展后的block.db及block.wal大小;
(10)、启动OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕;
BlueFS文件系统是BlueStore内部的一个微型用户态,BlueStore采用RocksDB管理对象元数据;
OSD加速设备采用逻辑卷方式通过Ceph-volume工具实现扩容,具体如下:
(一)、查询要扩容节点OSD的ceph-osd-dbs卷组是否有剩余空间或有新的加速盘设备供扩容使用;
(二)、对新加入设备进行pv创建并加入到vg卷组中;
(三)、对OSD对应的db及wal对应的lv通过lvextend进行扩展;其中,db及wal对应的lv通过Ceph-volume部署,包括手动通过Ceph-volume部署的Ceph集群和基于Kubernetes容器方式部署的Ceph集群;
(四)、通过ceph-bluestore-tool bluefs-bdev-expand对新的db及wal lv进行扩展并更新BlueFS文件系统;
(五)、通过ceph-bluestore-tool show-label查看扩展后的db及wal大小;
(六)、重启OSD服务,检查Ceph集群状态;OSD加速盘扩展完毕。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010161254.7A CN111367858B (zh) | 2020-03-10 | 2020-03-10 | 一种Ceph集群OSD加速盘扩容方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010161254.7A CN111367858B (zh) | 2020-03-10 | 2020-03-10 | 一种Ceph集群OSD加速盘扩容方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111367858A CN111367858A (zh) | 2020-07-03 |
CN111367858B true CN111367858B (zh) | 2024-02-20 |
Family
ID=71206713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010161254.7A Active CN111367858B (zh) | 2020-03-10 | 2020-03-10 | 一种Ceph集群OSD加速盘扩容方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111367858B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105554132A (zh) * | 2015-12-23 | 2016-05-04 | 浪潮集团有限公司 | 一种Hadoop在线扩容的方法 |
-
2020
- 2020-03-10 CN CN202010161254.7A patent/CN111367858B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105554132A (zh) * | 2015-12-23 | 2016-05-04 | 浪潮集团有限公司 | 一种Hadoop在线扩容的方法 |
Non-Patent Citations (4)
Title |
---|
pyr."ceph(luminous)-Bluestore ceph-bluestore-tool工具".《CSDN》.2018,第1页. * |
康文杰 ; 王勇 ; 俸皓 ; .云平台中MySQL数据库高可用性的设计与实现.计算机工程与设计.2018,(01),全文. * |
海底苍鹰."Linux系统下对硬盘分区进行扩容的方法总结".《脚本之家社区》.2015,第1-8页. * |
麦子迈."Ceph开发每周谈 Vol 99 ceph-volume 使用 LVM 管理介质".《XSKY星辰天合》.2017,第1-2页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111367858A (zh) | 2020-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7849282B2 (en) | Filesystem building method | |
US7213116B2 (en) | Method and apparatus for mirroring objects between storage systems | |
US8239648B2 (en) | Reclamation of thin provisioned disk storage | |
US6785693B2 (en) | Management of multiple links to a file in a file system | |
US20060047926A1 (en) | Managing multiple snapshot copies of data | |
US10852981B2 (en) | System for migrating virtual tape volumes between filesystems | |
US7266654B2 (en) | Storage system, server apparatus, and method for creating a plurality of snapshots | |
US8156271B2 (en) | Systems and methods for storage management in a data processing device | |
US20140040590A1 (en) | Method and system for managing large write-once tables in shadow page databases | |
WO2017050064A1 (zh) | 共享内存数据库的内存管理方法及装置 | |
CN109902034A (zh) | 快照创建方法、装置、电子设备及机器可读存储介质 | |
JP4225206B2 (ja) | 記憶装置の複製データ格納システムと複製データ格納プログラム | |
CN104461384A (zh) | 一种数据写入方法及存储设备 | |
CN104808953A (zh) | 控制数据存储的方法、装置及移动终端 | |
CN107798063A (zh) | 快照处理方法和快照处理装置 | |
CN111367858B (zh) | 一种Ceph集群OSD加速盘扩容方法 | |
CN111400273B (zh) | 数据库扩容方法、装置、电子设备及机器可读存储介质 | |
US11176089B2 (en) | Systems and methods for implementing dynamic file systems | |
CN101308472B (zh) | 镜像卷的初始同步方法和控制装置 | |
CN109558082B (zh) | 分布式文件系统 | |
CN113204520B (zh) | 一种基于分布式文件系统的遥感数据快速并发读写方法 | |
JP2012058863A (ja) | ディスク装置、および、ディスク装置へのデータ複製方法、プログラム | |
CN114328417A (zh) | 一种案例数据快速存取系统 | |
CN109343928B (zh) | 虚拟化集群中虚拟机的虚拟内存文件重定向方法及其系统 | |
EP3436990A1 (en) | Systems and methods for enabling modifications of multiple data objects within a file system volume |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |