CN114385755A - 一种分布式存储系统 - Google Patents

一种分布式存储系统 Download PDF

Info

Publication number
CN114385755A
CN114385755A CN202111657661.8A CN202111657661A CN114385755A CN 114385755 A CN114385755 A CN 114385755A CN 202111657661 A CN202111657661 A CN 202111657661A CN 114385755 A CN114385755 A CN 114385755A
Authority
CN
China
Prior art keywords
data
module
backup
maintenance
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111657661.8A
Other languages
English (en)
Inventor
徐育帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Zhongke Advanced Technology Research Institute Co Ltd
Original Assignee
Suzhou Zhongke Advanced Technology Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Zhongke Advanced Technology Research Institute Co Ltd filed Critical Suzhou Zhongke Advanced Technology Research Institute Co Ltd
Priority to CN202111657661.8A priority Critical patent/CN114385755A/zh
Publication of CN114385755A publication Critical patent/CN114385755A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • G06F16/273Asynchronous replication or reconciliation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3055Monitoring arrangements for monitoring the status of the computing system or of the computing system component, e.g. monitoring if the computing system is on, off, available, not available
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • G06F16/275Synchronous replication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • G06F16/278Data partitioning, e.g. horizontal or vertical partitioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及数据存储管理领域,具体涉及一种分布式存储系统,包括:接入模块用于对访问接入模块进行负载均衡;数据模块用于存储数据,数据模块包括多个存储单元,每个存储单元由一个写进程处理;配置运维中心模块用于负责整个仓库的配置维护和下发、资源的配额管理及用于自动或手动下发运维命令;备份模块用于负责整个系统所有业务的数据备份、回档及恢复;监控系统用于对系统的关键信息和运行状况进行上报及分析,对异常情况进行监控和告警。通过把数据分散存储在多个存储单元上,为大规模的存储应用提供大容量、高性能、高可用、扩展性好的存储服务。

Description

一种分布式存储系统
技术领域
本发明涉及数据存储管理领域,具体而言,涉及一种分布式存储系统。
背景技术
随着科技的发展,现代设备为人们的日常生活提供了极大便利,但越高科技的产品越需要大量数据的支撑,数据量越大则越需要更大的存储容量对数据进行存储;对于一些单机设备的存储仍存在这容量小、性能底扩展性差的问题;因此需要一种解决单机存储容量、性能,以及可用性、扩展性等方面问题的系统。
发明内容
本发明实施例提供了一种分布式存储系统,为大规模的存储应用提供大容量、高性能、高可用及扩展性好的存储服务。
根据本发明的一实施例,提供了一种分布式存储系统,包括:
接入模块,用于对访问接入模块进行负载均衡及把访问数据的请求转发数据所在的数据模块;
数据模块,用于存储数据,数据模块包括多个存储单元,每个存储单元由一个写进程处理;
配置运维中心模块,用于负责整个仓库的配置维护和下发、资源的配额管理及用于自动或手动下发运维命令;
备份模块,用于负责整个系统所有业务的数据备份、回档及恢复;
监控系统,用于对系统的关键信息和运行状况进行上报及分析,对异常情况进行监控和告警。
进一步地,数据模块通过存储介质进行数据存储,存储介质可以为SSD硬盘。
进一步地,配置运维中中心模块包括:
配置中心单元,用于负责整个仓库的配置维护和下发;
配额中心单元,用于负责资源的配额管理;
运维中心单元,用于自动或手动下发运维命令。
进一步地,备份模块包括:
流水中心单元,用于记录所有写操作的流水;
任务中心单元,用于管理和调度所有数据备份、回档和恢复任务的执行。
进一步地,系统还包括:
数据校验模块,用于对数据中记录的校验值进行校验,当读取数据的时,对数据进行校验,当校验失败时,则需要进行重试。
进一步地,数据模块包括用于存储数据的多个副本,多个副本用于数据备份;
数据的备份方式包括热备和冷备,热备为直接提供服务的备副本,或者在主副本失效时能立即提供服务的备副本;
冷备为用于恢复数据的副本。
进一步地,热备方式包括:
同构系统,同构系统为把存储节点分成若干组,每组节点存储相同的数据,其中一个主节点,主节点以外的为备节点。
进一步地,热备方式还包括:
异构系统,异构系统为把数据划分成若干分片,每个分片的多个副本分布在不同的存储节点。
进一步地,数据模块采用Key-Value的数据类型进行存储。
进一步地,系统还包括主控台,接入模块、数据模块、配置运维中心模块、备份模块及监控系统通过主控台连接。
本发明实施例中的分布式存储系统,包括:接入模块用于对访问接入模块进行负载均衡;数据模块用于存储数据,数据模块包括多个存储单元,每个存储单元由一个写进程处理;配置运维中心模块用于负责整个仓库的配置维护和下发、资源的配额管理及用于自动或手动下发运维命令;备份模块用于负责整个系统所有业务的数据备份、回档及恢复;监控系统用于对系统的关键信息和运行状况进行上报及分析,对异常情况进行监控和告警。通过把数据分散存储在多个存储单元上,为大规模的存储应用提供大容量、高性能、高可用、扩展性好的存储服务。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明分布式存储系统的原理图;
图2为本发明Key-Value数据类型图;
图3为本发明Key-Fields数据类型图;
图4为本发明Key-Rows数据类型图;
图5为本发明数据备份示例图;
图6为本发明同步机制示例图;
图7为本发明另一同步机制示例图;
图8为本发明容灾机制示例图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
参见图1,根据本发明一实施例,提供了一种基于深度学习的腹部体影像肝脏分割方法,包括:
接入模块100,用于对访问接入模块进行负载均衡及把访问数据的请求转发数据所在的数据模块;
数据模块200,用于存储数据,数据模块100包括多个存储单元,每个存储单元由一个写进程处理;
配置运维中心模块300,用于负责整个仓库的配置维护和下发、资源的配额管理及用于自动或手动下发运维命令;
备份模块400,用于负责整个系统所有业务的数据备份、回档及恢复;
监控系统500,用于对系统的关键信息和运行状况进行上报及分析,对异常情况进行监控和告警。通过把数据分散存储在多个存储单元上,为大规模的存储应用提供大容量、高性能、高可用、扩展性好的存储服务。
分布式存储系统是为了解决单机存储所存在的容量、性能等瓶颈,以及可用性、扩展性等方面的问题,通过把数据分散存储在多台存储设备上,为大规模的存储应用提供大容量、高性能、高可用、扩展性好的存储服务。
下面对各模块的主要功能进行详细说明:
接入模块100,主要是提供两个功能,一是对逻辑层访问接入层进行负载均衡;二是实现数据分片,即把访问数据的请求转发数据所在的数据层设备。
数据模块200,用于存储数据,存储介质可以支持内存或SSD。读写服务是处理用户的读写请求;同步模块多份数据拷贝之间的主备同步;运维工具是用于执行主备切换、死机恢复、扩容等运维操作。
配置运维中心模块300,配置运维中心由三部分组成。配置中心单元负责整个仓库的配置维护和下发;配额中心单元负责各个业务级别的容量、流量、CPU等资源的配额管理;运维中心单元用于自动或手动下发运维命令。
备份模块400,备份系统负责整个系统所有业务的数据备份、回档和恢复。流水中心会记录所有写操作的流水;任务中心管理和调度所有数据备份、回档和恢复任务的执行。
备份模块400包括:
流水中心单元,用于记录所有写操作的流水;
任务中心单元,用于管理和调度所有数据备份、回档和恢复任务的执行。
数据冷备和回档主要是由备份模块负责。备份任务一般是手动或定时发起,属于业务级别的,备份系统收到一个业务的备份任务后,会远程备份业务的所有数据,过程比较简单,就是遍历所有的存储节点,把属于该业务的所有数据写入到远程文件系统中,每次备份都需要记录开始时间和结束时间,作为数据回档的基准。
备份模块400中所有的写操作都会记录一份远程的流水,每条流水都记录了写操作的时间戳,由流水中心统一存储。结合数据冷备和流水,可以恢复到冷备完成后任意时刻的数据。备份系统收到一个业务回档任务后,首先停止该业务的服务,然后清空业务的所有数据,接着从冷备做一次全量的恢复,然后再重放流水到指定时间点,即可完成数据回档。需要注意的是这里的冷备并不是快照,在进行冷备的时候,写操作也正常执行,所以从冷备开始时间重放流水会导致很多的写操作重复执行,这里通过数据版本校验来避免这个问题,在数据中保存了版本信息,在写操作流水中也记录了对应的写操作完成后的数据版本,重放流水的时候,如果流水中记录的版本不比数据中的版本新,则直接跳过这条流水,这样就保证了数据回档的准确性。
监控模块500,对系统的关键信息和运行状况进行上报和分析,对异常情况进行监控和告警。打点上报是对系统的关键路径、异常点等进行计数或状态上报;多维上报是对打点上报的一个补充,上报了更多维度的信息。
具体地,在分布式存储系统中,数据需要分散存储在多台设备上,即实现数据分片,数据分片(Sharding)是用来确定数据在多台存储设备上分布的技术;数据分片可以实现:
1.分布均匀,即每台设备上的数据量要尽可能相近;
2.负载均衡,即每台设备上的请求量要尽可能相近;
3.扩缩容时产生的数据迁移尽可能少。
实施例中,分布式存储系统的存储结构中,NoSQL存储系统中,一般都采用Key-Value的数据类型,Key-Value结构简单,易于存储,非常适合分布式NoSQL存储系统。但简单的数据类型对业务存储的数据就有一定的局限性,比如需要存储列表类型的数据。针对这个问题,系统对Key-Value类型的数据做了一些扩展,支持在一个Key下存储多个字段和列表,扩大了数据存储的业务场景。
扩展的数据类型包括以下:
如图2是Key-Value的数据类型,Key-Value是最简单的数据类型,Key和Value都不支持结构化数据,业务进行读写的时候需要进行序列化和反序列化,系统并不理解数据结构,都当作二进制序列处理,具有通用性,这样Key和Value就支持任意类型的数据,只要序列化后的数据长度不超过限制。
图3是Key-Fields的数据类型,Key-Fields支持多个字段,使用整型的Tag进行字段标识,每个Tag对应的Field长度可以不一样,Field也是序列化的数据,比较通用。对于需要在一个Key的数据中存储多个字段的场景,Key-Fields相比Key-Value友好了很多。
图4是Key-Rows的数据类型,Key-Rows支持多个行,每一行就是一个Key-Fields,支持多个字段,各行的Field数量、长度都可以不一样,非常灵活。Key-Rows可以用来存储列表,支持更复杂的业务场景,如存放一个用户的购物订单信息。
实施例中,对于一块存储空间,单进程进行读写是最简单的设计,没有读写冲突的问题,但单进程在处理能力上就会成为瓶颈。为了提升处理能力,有必要使用多进程或多线程并发的方式,这样就引入了读写冲突的问题。
如果多个写进程并发操作一块存储空间,需要使用互斥锁机制,由于存储结构使用了链表,需要大粒度的锁才能保证不出现错链,并且锁机制实现起来也比较复杂。在这一系列的上一篇文章中提高一个更好的解决方法,把单机的存储空间划分为多个存储单元,每个存储单元由一个写进程处理,这样在并发的同时也保证了互斥,这种无锁的实现性能也更好。
系统还包括:数据校验模块,用于对数据中记录的校验值进行校验,当读取数据的时,对数据进行校验,当校验失败时,则需要进行重试。
解决了写进程互斥的问题,读写进程之间还是会存在冲突,如果某个数据在进行写操作的过程中,正好读进程在读取这个数据,就有可能读到的是不完整的数据。这个问题可以通过校验来解决,在数据中记录一个校验值,每次写入就更新校验值,读取数据的时候,对数据进行校验,如果校验失败说明出现了读写冲突,则需要进行重试。为了降低读写冲突的概率,在更新数据的时候,并不在原来的定长块链上进行覆写进行处理,而是分配新的定长块链。
进一步地,在分布式存储系统中,系统可用性是最重要的指标之一,需要保证在机器发生故障时,系统可用性不受影响,为了做到这点,数据就需要保存多个副本,并且多个副本要分布在不同的机器上,只要多个副本的数据是一致的,在机器故障引起某些副本失效时,其它副本仍然能提供服务。
实施例中,数据模块200包括用于存储数据的多个副本,多个副本用于数据备份;
数据的备份方式包括热备和冷备,热备为直接提供服务的备副本,或者在主副本失效时能立即提供服务的备副本;
冷备为用于恢复数据的副本。
热备方式包括:同构系统,同构系统为把存储节点分成若干组,每组节点存储相同的数据,其中一个主节点,主节点以外的为备节点。
热备方式还包括:异构系统,异构系统为把数据划分成若干分片,每个分片的多个副本分布在不同的存储节点。
具体地,数据备份是指存储数据的多个副本,备份方式可以分为热备和冷备,热备是指直接提供服务的备副本,或者在主副本失效时能立即提供服务的备副本,冷备是用于恢复数据的副本,一般通过Dump的方式生成。
数据热备按副本的分布方式可分为同构系统和异步系统。同构系统是把存储节点分成若干组,每组节点存储相同的数据,其中一个主节点,其他为备节点;异构系统是把数据划分成很多分片,每个分片的多个副本分布在不同的存储节点,存储节点之间是异构的,即每个节点存储的数据分片集合都不相同。在同构系统中,只有主节点提供写服务,备节点只提供读服务,每个主节点的备节点数可以不一样,这样在部署上会有更大的灵活性。在异构系统中,所有节点都是可以提供写服务的,并且在某个节点发生故障时,会有多个节点参与故障节点的数据恢复,但这种方式需要比较多的元数据来确定各个分片的主副本所在的节点,数据同步机制也会比较复杂。相比较而言,异构系统能提供更好的写性能,但实现比较复杂,而同构系统架构更简单,部署上也更灵活。鉴于互联网大部分业务场景具有写少读多的特性,选择更易于实现的同构系统的设计。
系统数据备份的架构如图5所示,每个节点代表一台物理机器,所有节点按数据分布划分为多个组,每一组的主备节点存储相同的数据,只有主节点能提供写服务,主节点负责把数据变更同步到所有的备节点,所有节点都能提供读服务。主节点上会分布全量的数据,所以主节点的数量决定了系统能存储的数据量,在系统容量不足时,就需要扩容主节点数量。在系统的处理能力上,如果是写能力不足,只能通过扩容主节点数来解决;而在写能力不足时,则可以通过增加备节点来提升。每个主节点拥有的备节点数量可以不一样,这在各个节点的数据热度不一样时特别有用,可以通过给比较热的节点增加更多的备节点实现用更少的资源来提升系统的处理能力。
进一步地,在上面的备份架构中,每个分组只有主节点接收写请求,然后由主节点负责把数据同步到所有的备节点,如图6的同步机制示例图所示,主节点采用一对多的方式进行同步,相对于级联的方式,这种方式在某个备节点故障时,不会影响其它备节点的同步。在CAP理论中,可用性和一致性是一对矛盾体,在这里主节点执行写操作后会立即回复客户端,然后再异步同步数据到备节点,这样并不能保证主备节点的数据强一致性,主备数据会有短暂的不一致,通过牺牲一定的一致性来保证系统的可用性。在这种机制下,客户端可能在备节点读到老数据,如果业务要求数据强一致性,则可以在读请求中设置只读主选项,这样读请求就会被接口层转发到主节点,这种情况下备节点只用于容灾,不提供服务。
为了保证主备节点的数据一致性,需要一种高效可靠的数据同步机制。同步分为增量同步和全量同步,增量同步是主节点把写请求直接转发到备节点执行,全量同步是主节点把本地的数据发到备节点进行覆盖。接下来详细介绍同步机制的实现,同步的整体流程如图7所示。
进一步地,参考图8,如果系统需要具有容灾能力,即在机器发生故障时,系统的可用性基本不受影响,那么系统中所有数据至少需要有两个以上的副本,并且系统的处理能力要有一定的冗余,需要保证在故障机器不能提供服务时,系统不会过载。一般来说,数据的副本数量越多,系统的处理能力越冗余,系统的容灾能力越强。更进一步,还需要考虑物理部署,通过把数据的不同副本分布在不同机架、不同机房、甚至是不同城市,来把系统的容灾能力提升到不同的级别。
配置运维中心会监控系统500存储层所有节点的状态,存储节点会定时上报心跳,如果配置运维中心在一段时间未收到某个存储节点的心跳,则把该节点的状态标记为故障,并进行故障处理流程。首先需要禁止故障节点继续提供服务,即通知接口层不再把客户端请求转发的故障节点,如果故障节点是主节点,配置运维中心会查询并对比所有备节点的同步进度,选择数据最新的备节点,将其切换为主节点。由于所有备节点也会记录Binlog,所以在切换为主节点之后,可以直接向其它备节点进行同步。这里的主备切换可能会导致少量的数据丢失,如果业务不能容忍这样的数据丢失,则需要使用其它强一致性的方案。
实施例中,系统还包括主控台,分布式存储系统包括的接入模块100、数据模块200、配置运维中心模块300、备份模块400、监控系统500、数据校验模块等各模块均通过主控台连接;并进行数据传递。
本申请分布式存储系统是为了解决单机存储所存在的容量、性能等瓶颈,以及可用性、扩展性等方面的问题,通过把数据分散存储在多台存储设备上,为大规模的存储应用提供大容量、高性能、高可用、扩展性好的存储服务。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种分布式存储系统,其特征在于,包括:
接入模块,用于对访问所述接入模块进行负载均衡及把访问数据的请求转发数据所在的数据模块;
所述数据模块,用于存储数据,所述数据模块包括多个存储单元,每个所述存储单元由一个写进程处理;
配置运维中心模块,用于负责整个仓库的配置维护和下发、资源的配额管理及用于自动或手动下发运维命令;
备份模块,用于负责整个系统所有业务的数据备份、回档及恢复;
监控系统,用于对系统的关键信息和运行状况进行上报及分析,对异常情况进行监控和告警。
2.根据权利要求1所述的分布式存储系统,其特征在于,所述数据模块通过存储介质进行数据存储,所述存储介质可以为SSD硬盘。
3.根据权利要求1所述的分布式存储系统,其特征在于,所述配置运维中中心模块包括:
配置中心单元,用于负责整个仓库的配置维护和下发;
配额中心单元,用于负责资源的配额管理;
运维中心单元,用于自动或手动下发运维命令。
4.根据权利要求1所述的分布式存储系统,其特征在于,所述备份模块包括:
流水中心单元,用于记录所有写操作的流水;
任务中心单元,用于管理和调度所有数据备份、回档和恢复任务的执行。
5.根据权利要求1所述的分布式存储系统,其特征在于,所述系统还包括:
数据校验模块,用于对数据中记录的校验值进行校验,当读取数据的时,对数据进行校验,当校验失败时,则需要进行重试。
6.根据权利要求1所述的分布式存储系统,其特征在于,所述数据模块包括用于存储数据的多个副本,多个副本用于数据备份;
数据的备份方式包括热备和冷备,所述热备为直接提供服务的备副本,或者在主副本失效时能立即提供服务的备副本;
所述冷备为用于恢复数据的副本。
7.根据权利要求6所述的分布式存储系统,其特征在于,所述热备方式包括:
同构系统,所述同构系统为把存储节点分成若干组,每组节点存储相同的数据,其中一个主节点,所述主节点以外的为备节点。
8.根据权利要求7所述的分布式存储系统,其特征在于,所述热备方式还包括:
异构系统,所述异构系统为把数据划分成若干分片,每个分片的多个副本分布在不同的存储节点。
9.根据权利要求1所述的分布式存储系统,其特征在于,所述数据模块采用Key-Value的数据类型进行存储。
10.根据权利要求1所述的分布式存储系统,其特征在于,所述系统还包括主控台,所述接入模块、数据模块、配置运维中心模块、备份模块及监控系统通过所述主控台连接。
CN202111657661.8A 2021-12-30 2021-12-30 一种分布式存储系统 Pending CN114385755A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111657661.8A CN114385755A (zh) 2021-12-30 2021-12-30 一种分布式存储系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111657661.8A CN114385755A (zh) 2021-12-30 2021-12-30 一种分布式存储系统

Publications (1)

Publication Number Publication Date
CN114385755A true CN114385755A (zh) 2022-04-22

Family

ID=81200572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111657661.8A Pending CN114385755A (zh) 2021-12-30 2021-12-30 一种分布式存储系统

Country Status (1)

Country Link
CN (1) CN114385755A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116614348A (zh) * 2023-07-19 2023-08-18 联想凌拓科技有限公司 用于远程复制服务的系统及其操作方法
CN117533251A (zh) * 2024-01-08 2024-02-09 知迪汽车技术(北京)有限公司 一种用于车载总线数据记录仪的分布式文件系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116614348A (zh) * 2023-07-19 2023-08-18 联想凌拓科技有限公司 用于远程复制服务的系统及其操作方法
CN117533251A (zh) * 2024-01-08 2024-02-09 知迪汽车技术(北京)有限公司 一种用于车载总线数据记录仪的分布式文件系统
CN117533251B (zh) * 2024-01-08 2024-05-10 知迪科技(安徽)有限公司 一种用于车载总线数据记录仪的分布式文件系统

Similar Documents

Publication Publication Date Title
CN109729129B (zh) 存储集群系统的配置修改方法、存储集群及计算机系统
EP1625501B1 (en) Read, write, and recovery operations for replicated data
EP2474919B1 (en) System and method for data replication between heterogeneous databases
EP1625502B1 (en) Redundant data assigment in a data storage system
US6934877B2 (en) Data backup/recovery system
JP6362685B2 (ja) オンライン・ホット・スタンバイ・データベースのためのレプリケーション方法、プログラム、および装置
US20060080574A1 (en) Redundant data storage reconfiguration
CN108509462B (zh) 一种同步活动事务表的方法及装置
US20040128587A1 (en) Distributed storage system capable of restoring data in case of a storage failure
CN114385755A (zh) 一种分布式存储系统
EP2976714B1 (en) Method and system for byzantine fault tolerant data replication
CN105739924A (zh) 基于缓存集群的缓存方法和系统
JPH1097451A (ja) クライアント/サーバ計算機システムにおけるログ・ファイルの最適化方法及び装置
WO2019020081A1 (zh) 分布式系统及其故障恢复方法、装置、产品和存储介质
CN104994168A (zh) 分布式存储方法及分布式存储系统
CN105426427A (zh) 基于raid 0 存储的mpp 数据库集群副本实现方法
US11003550B2 (en) Methods and systems of operating a database management system DBMS in a strong consistency mode
CN110121694B (zh) 一种日志管理方法、服务器和数据库系统
WO2024098696A1 (zh) 一种数据恢复方法、装置、设备及可读存储介质
US7913109B2 (en) Storage control apparatus and storage control method
WO2022033269A1 (zh) 数据处理的方法、设备及系统
CN110121712B (zh) 一种日志管理方法、服务器和数据库系统
CN111752892B (zh) 分布式文件系统及其实现方法、管理系统、设备及介质
Agrawal et al. Storage efficient replicated databases
WO2007028249A1 (en) Method and apparatus for sequencing transactions globally in a distributed database cluster with collision monitoring

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination