CN112650447B - 一种ceph分布式块存储的备份方法、系统及装置 - Google Patents

一种ceph分布式块存储的备份方法、系统及装置 Download PDF

Info

Publication number
CN112650447B
CN112650447B CN202011510248.4A CN202011510248A CN112650447B CN 112650447 B CN112650447 B CN 112650447B CN 202011510248 A CN202011510248 A CN 202011510248A CN 112650447 B CN112650447 B CN 112650447B
Authority
CN
China
Prior art keywords
backup
data blocks
address information
block
block address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011510248.4A
Other languages
English (en)
Other versions
CN112650447A (zh
Inventor
朱文龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Inspur Data Technology Co Ltd
Original Assignee
Beijing Inspur Data Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Inspur Data Technology Co Ltd filed Critical Beijing Inspur Data Technology Co Ltd
Priority to CN202011510248.4A priority Critical patent/CN112650447B/zh
Publication of CN112650447A publication Critical patent/CN112650447A/zh
Application granted granted Critical
Publication of CN112650447B publication Critical patent/CN112650447B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/064Management of blocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Abstract

本发明公开了一种ceph分布式块存储的备份方法、系统及装置,每隔预设备份周期,均创建ceph分布式块存储的新快照;将新快照与上一次备份时创建的快照进行比较,以找出本次备份时所有发生变化的数据块;将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中。可见,本申请采用快照对比方式找出每次备份时所有发生变化的数据块,能够快速定位发生变化的数据块,无需进行数据块校验,效率较高,且本申请采用数据块合并备份的方式可进一步提高数据备份效率;而且,本备份方案支持将块存储备份到任意对象存储介质,更加灵活。

Description

一种ceph分布式块存储的备份方法、系统及装置
技术领域
本发明涉及云硬盘备份领域,特别是涉及一种ceph分布式块存储的备份方法、系统及装置。
背景技术
目前,ceph是一种主流的开源分布式存储系统,它同时支持块存储、对象存储及文件存储三种应用场景。其中,ceph分布式块存储经常与openstack(一种主流的开源云管平台)集成,作为openstack虚拟机的系统盘或者数据盘使用。为了防止虚拟机崩溃之后用户数据丢失,需要定期将虚拟机数据进行备份,如选择将整个系统盘或者数据盘进行备份。
现有技术中,针对ceph分布式块存储,主要有以下两种备份方案:
1)基于rbd(ceph中的块设备)的备份方案,它支持将云硬盘从一个ceph集群备份到另一个ceph集群,但该备份方案要求源集群以及作为备份介质的目的集群都必须是ceph集群,并且,目的集群的应用场景必须是块存储场景,不够灵活。
2)基于Swift接口(openstack提供的一种对象存储服务接口)的备份方案,它支持将ceph分布式块存储备份到对象存储介质上,并且,不要求源集群和作为备份介质的目的集群必须是ceph集群,相较于第一种方案,更加灵活。但是,在创建备份时,需要对整个云硬盘的数据块逐一进行校验,然后与上一次备份的数据块的校验值进行比较,以找到发生变化的数据块备份,该过程计算量较大,效率较低。
因此,如何提供一种解决上述技术问题的方案是本领域的技术人员目前需要解决的问题。
发明内容
本发明的目的是提供一种ceph分布式块存储的备份方法、系统及装置,采用快照对比方式找出每次备份时所有发生变化的数据块,能够快速定位发生变化的数据块,无需进行数据块校验,效率较高,且本申请采用数据块合并备份的方式可进一步提高数据备份效率;而且,本备份方案支持将块存储备份到任意对象存储介质,更加灵活。
为解决上述技术问题,本发明提供了一种ceph分布式块存储的备份方法,包括:
每隔预设备份周期,均创建ceph分布式块存储的新快照;
将所述新快照与上一次备份时创建的快照进行比较,以找出本次备份时所有发生变化的数据块;
将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中。
优选地,将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中的过程,包括:
将本次备份时所有发生变化的数据块的块地址信息进行合并处理,得到合并后的数据块的块地址信息;
根据合并后的数据块的块地址信息,将合并后的数据块中的待备份数据备份到预准备的备份介质中。
优选地,所述ceph分布式块存储的备份方法还包括:
在找出本次备份时所有发生变化的数据块之后,将本次备份时所有发生变化的数据块的块地址信息均记录到为本次备份创建的元数据文件中;其中,为本次备份创建的元数据文件的名称为本次备份的ID。
优选地,所述ceph分布式块存储的备份方法还包括:
预先创建用于记录所有备份的上下游关系的备份链文件;其中,每次备份在所述备份链文件中均拥有一个包括备份ID、parent及child信息的节点;
在新增一次备份时,在所述备份链文件中增加一个新节点,将上一次备份的节点的child改为本次备份的ID,并将所述新节点的parent改为上一次备份的ID,且将所述新节点的child置为空。
优选地,所述ceph分布式块存储的备份方法还包括:
在对第N次备份进行备份恢复时,根据所述备份链文件的记录内容,获取第1次到第N次备份对应的元数据文件;其中,N为正整数;
根据任一次备份对应的元数据文件,确定此次备份时所有发生变化的数据块的块地址信息;
将第1次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理,得到合并后的总数据块的块地址信息;
根据所述总数据块的块地址信息,从所述备份介质中读取出相应数据以恢复云硬盘中的相应数据。
优选地,从在对第N次备份进行备份恢复时到得到合并后的总数据块的块地址信息的过程,包括:
在对第N次备份进行备份恢复时,获取第N次备份对应的元数据文件;
根据第N次备份对应的元数据文件,确定第N次备份时所有发生变化的数据块的块地址信息;
根据所述备份链文件的记录内容,获取第N-M次备份对应的元数据文件;其中,M的初始值为1;
根据第N-M次备份对应的元数据文件,确定第N-M次备份时所有发生变化的数据块的块地址信息;
将第N-M次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理,得到合并后的总数据块的块地址信息;
将M=M+1,并根据所述备份链文件的记录内容,获取第N-M次备份对应的元数据文件;
根据第N-M次备份对应的元数据文件,确定第N-M次备份时所有发生变化的数据块的块地址信息;
将第N-M次备份的所有发生变化的数据块的块地址信息与上一次合并后的总数据块的块地址信息进行合并处理,得到新合并后的总数据块的块地址信息,并返回执行将M=M+1,并根据所述备份链文件的记录内容,获取第N-M次备份对应的元数据文件的步骤,直至将第1次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理完毕。
优选地,所述数据块的块地址信息为[start,end,length];其中,start表示数据块起始地址,end表示数据块结束地址,length表示数据块大小。
为解决上述技术问题,本发明还提供了一种ceph分布式块存储的备份系统,包括:
创建模块,用于每隔预设备份周期,均创建ceph分布式块存储的新快照;
比较模块,用于将所述新快照与上一次备份时创建的快照进行比较,以找出本次备份时所有发生变化的数据块;
备份模块,用于将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中。
优选地,所述备份模块具体用于:
将本次备份时所有发生变化的数据块的块地址信息进行合并处理,得到合并后的数据块的块地址信息;
根据合并后的数据块的块地址信息,将合并后的数据块中的待备份数据备份到预准备的备份介质中。
为解决上述技术问题,本发明还提供了一种ceph分布式块存储的备份装置,包括:
存储器,用于存储计算机程序;
处理器,用于在执行所述计算机程序时实现上述任一种ceph分布式块存储的备份方法的步骤。
本发明提供了一种ceph分布式块存储的备份方法,每隔预设备份周期,均创建ceph分布式块存储的新快照;将新快照与上一次备份时创建的快照进行比较,以找出本次备份时所有发生变化的数据块;将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中。可见,本申请采用快照对比方式找出每次备份时所有发生变化的数据块,能够快速定位发生变化的数据块,无需进行数据块校验,效率较高,且本申请采用数据块合并备份的方式可进一步提高数据备份效率;而且,本备份方案支持将块存储备份到任意对象存储介质,更加灵活。
本发明还提供了一种ceph分布式块存储的备份系统及装置,与上述备份方法具有相同的有益效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对现有技术和实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种ceph分布式块存储的备份方法的流程图;
图2为本发明实施例提供的一种ceph分布式块存储的备份系统的结构示意图。
具体实施方式
本发明的核心是提供一种ceph分布式块存储的备份方法、系统及装置,采用快照对比方式找出每次备份时所有发生变化的数据块,能够快速定位发生变化的数据块,无需进行数据块校验,效率较高,且本申请采用数据块合并备份的方式可进一步提高数据备份效率;而且,本备份方案支持将块存储备份到任意对象存储介质,更加灵活。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参照图1,图1为本发明实施例提供的一种ceph分布式块存储的备份方法的流程图。
该ceph分布式块存储的备份方法包括:
步骤S1:每隔预设备份周期,均创建ceph分布式块存储的新快照。
具体地,本申请每隔预设备份周期,均创建ceph分布式块存储的新快照,以为后续找出本次备份时所有发生变化的数据块提供参考依据。
步骤S2:将新快照与上一次备份时创建的快照进行比较,以找出本次备份时所有发生变化的数据块。
具体地,本申请将本次备份时创建的新快照与上一次备份时创建的快照进行比较,可找出本次备份时所有发生变化的数据块。这种快照对比方式能够快速定位发生变化的数据块,无需进行数据块校验,效率较高。
需要说明的是,步骤S1和步骤S2的过程是通过调用ceph提供的内部接口来实现的。
步骤S3:将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中。
具体地,本申请为了提高数据传输效率,在进行备份之前,将本次备份时所有发生变化的数据块进行合并处理,以将较小的数据块合并成较大的数据块。然后,本申请将合并得到的数据块中的待备份数据备份到预准备的备份介质中,完成本次备份。
可见,本申请的备份全部采用增量备份,以缩短数据传输时间,减少备份空间占用。此外,本申请的备份可以采用S3(Simple Storage Service,是一种面向网络的存储服务,可以支持用户随时在Web的任何位置,存储和检索任意大小的数据)、Swift、NFS(Network File System,网络文件系统)等接口传输到备份介质,本申请在此不做特别的限定。
本发明提供了一种ceph分布式块存储的备份方法,每隔预设备份周期,均创建ceph分布式块存储的新快照;将新快照与上一次备份时创建的快照进行比较,以找出本次备份时所有发生变化的数据块;将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中。可见,本申请采用快照对比方式找出每次备份时所有发生变化的数据块,能够快速定位发生变化的数据块,无需进行数据块校验,效率较高,且本申请采用数据块合并备份的方式可进一步提高数据备份效率;而且,本备份方案支持将块存储备份到任意对象存储介质,更加灵活。
在上述实施例的基础上:
作为一种可选的实施例,将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中的过程,包括:
将本次备份时所有发生变化的数据块的块地址信息进行合并处理,得到合并后的数据块的块地址信息;
根据合并后的数据块的块地址信息,将合并后的数据块中的待备份数据备份到预准备的备份介质中。
具体地,本申请可在找出本次备份时所有发生变化的数据块之后,将本次备份时所有发生变化的数据块的块地址信息进行合并处理,得到合并后的数据块的块地址信息。比如,每个发生变化的数据块的块地址信息用如下三元组表示:[start,end,length],其中,start表示数据块起始地址,end表示数据块结束地址,length表示数据块大小。若将两个数据块的块地址信息[0,10,10]和[5,30,25]进行合并处理,可得到合并后的数据块的块地址信息[0,30,30]。然后,根据合并后的数据块的块地址信息,将合并后的数据块中的待备份数据备份到备份介质中即可。
作为一种可选的实施例,ceph分布式块存储的备份方法还包括:
在找出本次备份时所有发生变化的数据块之后,将本次备份时所有发生变化的数据块的块地址信息均记录到为本次备份创建的元数据文件中;其中,为本次备份创建的元数据文件的名称为本次备份的ID。
进一步地,本申请还可为每次备份均创建一个元数据文件,目的是在找出本次备份时所有发生变化的数据块之后,将本次备份时所有发生变化的数据块的块地址信息均记录到为本次备份创建的元数据文件中,从而通过元数据文件可了解到每次备份时所有发生变化的数据块。
需要说明的是,为本次备份创建的元数据文件的名称为本次备份的ID(表示第几次备份),以根据元数据文件的名称确定元数据文件是第几次备份时创建的。
作为一种可选的实施例,ceph分布式块存储的备份方法还包括:
预先创建用于记录所有备份的上下游关系的备份链文件;其中,每次备份在备份链文件中均拥有一个包括备份ID、parent及child信息的节点;
在新增一次备份时,在备份链文件中增加一个新节点,将上一次备份的节点的child改为本次备份的ID,并将新节点的parent改为上一次备份的ID,且将新节点的child置为空。
进一步地,本申请还可创建用于记录所有备份的上下游关系的备份链文件,所有备份的上下游关系表示所有备份的创建顺序,即哪个备份在哪个备份之前创建,哪个备份在哪个备份之后创建。可以理解的是,每次备份在备份链文件中均拥有一个节点,节点信息包括备份ID、parent及child。
在新增一次备份时,在备份链文件中增加一个新节点,将上一次备份的节点的child改为本次备份的ID,并将新节点的parent改为上一次备份的ID,将新节点的child置为空。需要说明的是,第1次备份在备份链文件中拥有的节点的节点信息中parent为空。
比如,在第1次备份时,第1次备份在备份链文件中拥有的节点的节点信息包括备份ID:1、parent:0、child:0;在新增一次备份时,第1次备份在备份链文件中拥有的节点的节点信息包括备份ID:1、parent:0、child:2,第1次备份在备份链文件中拥有的节点的节点信息包括备份ID:2、parent:1、child:0。
作为一种可选的实施例,ceph分布式块存储的备份方法还包括:
在对第N次备份进行备份恢复时,根据备份链文件的记录内容,获取第1次到第N次备份对应的元数据文件;其中,N为正整数;
根据任一次备份对应的元数据文件,确定此次备份时所有发生变化的数据块的块地址信息;
将第1次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理,得到合并后的总数据块的块地址信息;
根据总数据块的块地址信息,从备份介质中读取出相应数据以恢复云硬盘中的相应数据。
进一步地,本申请还可进行备份恢复,传统的备份恢复,是从最早的备份开始,从前往后逐个进行恢复,这种方式会出现某些区间的数据被多次恢复的情况。比如,一个容量为30GB的云硬盘,使用传统的备份方式,第一次备份出去30GB数据,之后又有10GB数据发生了变化,再将这10GB发生变化的数据备份出去。如果要将云硬盘恢复到第二次备份时的状态,首先要恢复第一次备份的30GB数据量,然后再在此基础上恢复第二次备份的10GB数据量,总共需要恢复30+10=40GB数据。
而本申请在对第N次备份进行备份恢复时,根据备份链文件的记录内容,得到第1次到第N次备份对应的备份ID,并根据第1次到第N次备份对应的备份ID,获取第1次到第N次备份对应的元数据文件;根据第1次到第N次备份中任一次备份对应的元数据文件,确定此次备份时所有发生变化的数据块的块地址信息;将第1次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理,得到合并后的总数据块的块地址信息;根据总数据块的块地址信息,从备份介质中读取出相应数据以恢复云硬盘中的相应数据。这种备份恢复方法,可以减少不必要的数据恢复量。
作为一种可选的实施例,从在对第N次备份进行备份恢复时到得到合并后的总数据块的块地址信息的过程,包括:
在对第N次备份进行备份恢复时,获取第N次备份对应的元数据文件;
根据第N次备份对应的元数据文件,确定第N次备份时所有发生变化的数据块的块地址信息;
根据备份链文件的记录内容,获取第N-M次备份对应的元数据文件;其中,M的初始值为1;
根据第N-M次备份对应的元数据文件,确定第N-M次备份时所有发生变化的数据块的块地址信息;
将第N-M次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理,得到合并后的总数据块的块地址信息;
将M=M+1,并根据备份链文件的记录内容,获取第N-M次备份对应的元数据文件;
根据第N-M次备份对应的元数据文件,确定第N-M次备份时所有发生变化的数据块的块地址信息;
将第N-M次备份的所有发生变化的数据块的块地址信息与上一次合并后的总数据块的块地址信息进行合并处理,得到新合并后的总数据块的块地址信息,并返回执行将M=M+1,并根据备份链文件的记录内容,获取第N-M次备份对应的元数据文件的步骤,直至将第1次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理完毕。
具体地,假设当前做了四次备份,按照时间顺序分别为A、B、C、D,若要将云硬盘恢复到C时的状态,则备份恢复过程具体如下:
1)获取备份C对应的元数据文件,得到C备份了哪些数据块,假设只有[50,100,50]这一个数据块。2)获取C的上一次备份B对应的元数据文件,得到B备份了哪些数据块,假设只有[20,80,60]这一个数据块。3)由上述两个数据块可知,在创建C备份时,20到50这一地址空间上的数据是没有发生变化的,将云硬盘恢复到C的状态时,C备份创建之前没有发生变化的数据也要恢复,因此,要将B和C的两个数据块做一些合并处理,合并结果是[20,100,80]。4)继续获取B的上一次备份A对应的元数据文件,得到A备份了哪些数据块,假设只有[0,90,90]这一个数据块。5)根据3)中的原理,将数据块[20,100,80]和数据块[0,90,90]进行合并处理,合并结果是[0,100,100],这就是最终要恢复的数据量。6)从备份介质中读取[0,100,100]这些数据,覆盖云硬盘中的相应数据,达到备份恢复的目的。
这种备份恢复方式称为超前计算,即在恢复开始之前,先进行计算。如果不采用这种方式,总共需要做三次恢复,第一次恢复A备份,需要恢复90的数据量,第二次恢复B备份,需要恢复60的数据量,第三次恢复C备份,需要恢复50的数据量,总共需要恢复90+60+50=200的数据量。而采用超前计算的方式,只需要进行一次恢复,恢复的数据量为100,可以减少不必要的数据恢复量。
作为一种可选的实施例,数据块的块地址信息为[start,end,length];其中,start表示数据块起始地址,end表示数据块结束地址,length表示数据块大小。
本实施例在上述实施例中已作介绍,本申请在此不再赘述。
请参照图2,图2为本发明实施例提供的一种ceph分布式块存储的备份系统的结构示意图。
该ceph分布式块存储的备份系统包括:
创建模块1,用于每隔预设备份周期,均创建ceph分布式块存储的新快照;
比较模块2,用于将新快照与上一次备份时创建的快照进行比较,以找出本次备份时所有发生变化的数据块;
备份模块3,用于将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中。
作为一种可选的实施例,备份模块3具体用于:
将本次备份时所有发生变化的数据块的块地址信息进行合并处理,得到合并后的数据块的块地址信息;
根据合并后的数据块的块地址信息,将合并后的数据块中的待备份数据备份到预准备的备份介质中。
本申请提供的备份系统的介绍请参考上述备份方法的实施例,本申请在此不再赘述。
本申请还提供了一种ceph分布式块存储的备份装置,包括:
存储器,用于存储计算机程序;
处理器,用于在执行计算机程序时实现上述任一种ceph分布式块存储的备份方法的步骤。
本申请提供的备份装置的介绍请参考上述备份方法的实施例,本申请在此不再赘述。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其他实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种ceph分布式块存储的备份方法,其特征在于,包括:
每隔预设备份周期,均创建ceph分布式块存储的新快照;
将所述新快照与上一次备份时创建的快照进行比较,以找出本次备份时所有发生变化的数据块;
将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中;
其中,将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中的过程,包括:
将本次备份时所有发生变化的数据块的块地址信息进行合并处理,得到合并后的数据块的块地址信息;根据合并后的数据块的块地址信息,将合并后的数据块中的待备份数据备份到预准备的备份介质中;
所述ceph分布式块存储的备份方法还包括:
在找出本次备份时所有发生变化的数据块之后,将本次备份时所有发生变化的数据块的块地址信息均记录到为本次备份创建的元数据文件中;其中,为本次备份创建的元数据文件的名称为本次备份的ID;
预先创建用于记录所有备份的上下游关系的备份链文件;其中,每次备份在所述备份链文件中均拥有一个包括备份ID、parent及child信息的节点;在新增一次备份时,在所述备份链文件中增加一个新节点,将上一次备份的节点的child改为本次备份的ID,并将所述新节点的parent改为上一次备份的ID,且将所述新节点的child置为空;
所述数据块的块地址信息为[start,end,length];其中,start表示数据块起始地址,end表示数据块结束地址,length表示数据块大小。
2.如权利要求1所述的ceph分布式块存储的备份方法,其特征在于,所述ceph分布式块存储的备份方法还包括:
在对第N次备份进行备份恢复时,根据所述备份链文件的记录内容,获取第1次到第N次备份对应的元数据文件;其中,N为正整数;
根据任一次备份对应的元数据文件,确定此次备份时所有发生变化的数据块的块地址信息;
将第1次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理,得到合并后的总数据块的块地址信息;
根据所述总数据块的块地址信息,从所述备份介质中读取出相应数据以恢复云硬盘中的相应数据。
3.如权利要求2所述的ceph分布式块存储的备份方法,其特征在于,从在对第N次备份进行备份恢复时到得到合并后的总数据块的块地址信息的过程,包括:
在对第N次备份进行备份恢复时,获取第N次备份对应的元数据文件;
根据第N次备份对应的元数据文件,确定第N次备份时所有发生变化的数据块的块地址信息;
根据所述备份链文件的记录内容,获取第N-M次备份对应的元数据文件; 其中,M的初始值为1;
根据第N-M次备份对应的元数据文件,确定第N-M次备份时所有发生变化的数据块的块地址信息;
将第N-M次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理,得到合并后的总数据块的块地址信息;
将M=M+1,并根据所述备份链文件的记录内容,获取第N-M次备份对应的元数据文件;
根据第N-M次备份对应的元数据文件,确定第N-M次备份时所有发生变化的数据块的块地址信息;
将第N-M次备份的所有发生变化的数据块的块地址信息与上一次合并后的总数据块的块地址信息进行合并处理,得到新合并后的总数据块的块地址信息,并返回执行将M=M+1,并根据所述备份链文件的记录内容,获取第N-M次备份对应的元数据文件的步骤,直至将第1次到第N次备份时各自对应的所有发生变化的数据块的块地址信息进行合并处理完毕。
4.一种ceph分布式块存储的备份系统,其特征在于,包括:
创建模块,用于每隔预设备份周期,均创建ceph分布式块存储的新快照;
比较模块,用于将所述新快照与上一次备份时创建的快照进行比较,以找出本次备份时所有发生变化的数据块;
备份模块,用于将本次备份时所有发生变化的数据块进行合并处理,并将合并得到的数据块中的待备份数据备份到预准备的备份介质中;
其中,所述备份模块具体用于:
将本次备份时所有发生变化的数据块的块地址信息进行合并处理,得到合并后的数据块的块地址信息;根据合并后的数据块的块地址信息,将合并后的数据块中的待备份数据备份到预准备的备份介质中;
所述ceph分布式块存储的备份系统还用于:
在找出本次备份时所有发生变化的数据块之后,将本次备份时所有发生变化的数据块的块地址信息均记录到为本次备份创建的元数据文件中;其中,为本次备份创建的元数据文件的名称为本次备份的ID;
预先创建用于记录所有备份的上下游关系的备份链文件;其中,每次备份在所述备份链文件中均拥有一个包括备份ID、parent及child信息的节点;在新增一次备份时,在所述备份链文件中增加一个新节点,将上一次备份的节点的child改为本次备份的ID,并将所述新节点的parent改为上一次备份的ID,且将所述新节点的child置为空;
所述数据块的块地址信息为[start,end,length];其中,start表示数据块起始地址,end表示数据块结束地址,length表示数据块大小。
5.一种ceph分布式块存储的备份装置,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于在执行所述计算机程序时实现如权利要求1-3任一项所述的ceph分布式块存储的备份方法的步骤。
CN202011510248.4A 2020-12-18 2020-12-18 一种ceph分布式块存储的备份方法、系统及装置 Active CN112650447B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011510248.4A CN112650447B (zh) 2020-12-18 2020-12-18 一种ceph分布式块存储的备份方法、系统及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011510248.4A CN112650447B (zh) 2020-12-18 2020-12-18 一种ceph分布式块存储的备份方法、系统及装置

Publications (2)

Publication Number Publication Date
CN112650447A CN112650447A (zh) 2021-04-13
CN112650447B true CN112650447B (zh) 2024-02-13

Family

ID=75355141

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011510248.4A Active CN112650447B (zh) 2020-12-18 2020-12-18 一种ceph分布式块存储的备份方法、系统及装置

Country Status (1)

Country Link
CN (1) CN112650447B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101495970A (zh) * 2005-06-24 2009-07-29 信科索尔特公司 用于高性能企业数据保护的系统和方法
US8386733B1 (en) * 2008-02-15 2013-02-26 Symantec Corporation Method and apparatus for performing file-level restoration from a block-based backup file stored on a sequential storage device
CN105843704A (zh) * 2016-03-15 2016-08-10 上海爱数信息技术股份有限公司 一种结合分布式块存储的快照功能的数据保护方法及系统
CN106095622A (zh) * 2016-06-22 2016-11-09 上海爱数信息技术股份有限公司 数据备份方法及装置
KR101826176B1 (ko) * 2017-06-20 2018-02-14 주식회사 비츠코리아 스냅샷 방식의 이미지 테이블을 이용한 백업데이터 제어방법
CN111078464A (zh) * 2018-10-22 2020-04-28 华为技术有限公司 一种备份数据的方法、装置和系统
CN111163126A (zh) * 2019-11-29 2020-05-15 广东睿江云计算股份有限公司 一种基于Ceph分布式存储的异地备份恢复方法
CN112069127A (zh) * 2020-09-01 2020-12-11 南京卓盛云信息科技有限公司 一种CephFS文件系统的备份方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101495970A (zh) * 2005-06-24 2009-07-29 信科索尔特公司 用于高性能企业数据保护的系统和方法
US8386733B1 (en) * 2008-02-15 2013-02-26 Symantec Corporation Method and apparatus for performing file-level restoration from a block-based backup file stored on a sequential storage device
CN105843704A (zh) * 2016-03-15 2016-08-10 上海爱数信息技术股份有限公司 一种结合分布式块存储的快照功能的数据保护方法及系统
CN106095622A (zh) * 2016-06-22 2016-11-09 上海爱数信息技术股份有限公司 数据备份方法及装置
KR101826176B1 (ko) * 2017-06-20 2018-02-14 주식회사 비츠코리아 스냅샷 방식의 이미지 테이블을 이용한 백업데이터 제어방법
CN111078464A (zh) * 2018-10-22 2020-04-28 华为技术有限公司 一种备份数据的方法、装置和系统
CN111163126A (zh) * 2019-11-29 2020-05-15 广东睿江云计算股份有限公司 一种基于Ceph分布式存储的异地备份恢复方法
CN112069127A (zh) * 2020-09-01 2020-12-11 南京卓盛云信息科技有限公司 一种CephFS文件系统的备份方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
The Research and Implementation of Metadata Cache Backup Technology Based on CEPH File System;Zhan, L 等;IEEE International Conference on Cloud Computing and Big Data Analysis (ICCCBDA);全文 *
一种Ceph分布式块存储的持续数据保护方法;王胜杰;徐龙;;网络安全技术与应用(第02期);全文 *
基于Veeam的虚拟化备份技术研究;夏畅;;通信管理与技术(第01期);全文 *
面向OpenStack/Ceph的虚拟机备份系统研究;杨皓森 等;计算机系统应用;全文 *

Also Published As

Publication number Publication date
CN112650447A (zh) 2021-04-13

Similar Documents

Publication Publication Date Title
US11256715B2 (en) Data backup method and apparatus
US8234475B2 (en) Save set bundling for staging
US9934104B2 (en) Metadata generation for incremental backup
US9703640B2 (en) Method and system of performing incremental SQL server database backups
US8250033B1 (en) Replication of a data set using differential snapshots
US10162555B2 (en) Deduplicating snapshots associated with a backup operation
US9183268B2 (en) Partition level backup and restore of a massively parallel processing database
WO2018098972A1 (zh) 一种日志恢复方法、存储装置和存储节点
US10628298B1 (en) Resumable garbage collection
US11093387B1 (en) Garbage collection based on transmission object models
JP2013541083A (ja) 重複排除に基づくストレージシステムにおけるスケーラブル参照管理のためのシステム及び方法
US10146633B2 (en) Data recovery from multiple data backup technologies
WO2019020081A1 (zh) 分布式系统及其故障恢复方法、装置、产品和存储介质
CN105573859A (zh) 一种数据库的数据恢复方法和设备
US10977143B2 (en) Mirrored write ahead logs for data storage system
US10409691B1 (en) Linking backup files based on data partitions
US11797397B2 (en) Hybrid NVRAM logging in filesystem namespace
US9223793B1 (en) De-duplication of files for continuous data protection with remote storage
US8621166B1 (en) Efficient backup of multiple versions of a file using data de-duplication
CN113254394A (zh) 一种快照处理方法、系统、设备及存储介质
JP2017531892A (ja) ブロックレベル記憶デバイスのスナップショットを実行するための改善された装置および方法
CN112650447B (zh) 一种ceph分布式块存储的备份方法、系统及装置
US20140250078A1 (en) Multiphase deduplication
US10452496B2 (en) System and method for managing storage transaction requests
US11645333B1 (en) Garbage collection integrated with physical file verification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant