CN108347454A - 元数据交互方法及系统 - Google Patents

元数据交互方法及系统 Download PDF

Info

Publication number
CN108347454A
CN108347454A CN201710053029.XA CN201710053029A CN108347454A CN 108347454 A CN108347454 A CN 108347454A CN 201710053029 A CN201710053029 A CN 201710053029A CN 108347454 A CN108347454 A CN 108347454A
Authority
CN
China
Prior art keywords
metadata
machine
server
request
pulled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710053029.XA
Other languages
English (en)
Other versions
CN108347454B (zh
Inventor
程霖
卢毅军
陶云峰
唐治洋
朱云锋
安凯歌
付鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201710053029.XA priority Critical patent/CN108347454B/zh
Publication of CN108347454A publication Critical patent/CN108347454A/zh
Application granted granted Critical
Publication of CN108347454B publication Critical patent/CN108347454B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/561Adding application-functional data or data for application control, e.g. adding metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明的目的是提供一种元数据交互方法及系统,通过前端机从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复当前已经拉取的元数据的位置,所述后端机根据所述位置删除其内部存储的所述已经拉取的元数据,后端机不需要存储所有的元数据,只需要存储还未拉取到本地存储系统,可以避免后端机的单机存储性能的下降和存储容量的限制,数据存储站点数量受一致性协议Quorum节点数的限制的问题,达到整个系统的数据一致性、正确性与健壮性,另外,前端机和本地存储系统可以实现按需要进行扩展。

Description

元数据交互方法及系统
技术领域
本发明涉及计算机领域,尤其涉及一种元数据交互方法及系统。
背景技术
在设计跨地域一致性元数据系统时,最核心的基础组件是后端一致性系统(Quorum),如业界的zookeeper,chubby。但是在全球化的场景下,单纯的利用一致性系统存储元数据如log(日志)和snapshot(快照),会造成单机存储性能的下降和存储容量的限制,数据存储站点数量受一致性协议Quorum节点数的限制,而且每个地域(region)读取数据性能低。其中,Log为事务性日志,也就是用户发送的请求数据,在后端一致性系统中统一称为Log;Snapshot为快照,也就是后端一致性系统中某一时刻内存中全量数据的快照。
在设计跨地域一致性元数据存储系统架构中,最核心的是需要分布式一致性系统来保证全球元数据的一致性。业界通用的做法是利用zookeeper或者chubby,或者基于paxos实现的一致性系统,如图1所示,它们的通用架构是:
每个地域(region)需要一个本地存储系统(storage system),可以是mysql或者分布式数据库等。这种架构的组件比较少,交互协议设计比较简单。分布式一致性系统会每隔一段时间将snapshot打到存储系统中,每个地域的client/user就会从存储系统中获取解析数据。但是,这种架构中,Quorum中的每个机器包括主服务器(Leader)和从服务器(Follower),还是需要存储所有的snapshot,主服务器(Leader)和从服务器(Follower)的内存中还是存储着全量的log数据。
在此,可以明显看出上述这种一致性系统存在着明显的可扩展性,单机性能瓶颈,磁盘和内存数据容量受限的问题。而且本地存储系统(storage system)还是得需要从一致性系统中获取数据,这样还得需要Quorum系统中的Leader接入mysql/storage system,主动将snapshot数据发送到mysql/storage system,其性能不佳。因此,这样的架构协议虽然简单,一致性系统不需要任何修改,只要每隔一段时间将snapshot数据推送到mysql/storage system中就可以了,但是,这种架构只是解决了每个地域的用户client/user的读取请求而已,并没有解决全球化跨地域的一致性元数据访问的难点。
如上所述,直接使用分布式一致性系统作为跨地域核心后端系统,协议设计简单,系统也不容易出错,但是面临着众多性能和机器存储容量的问题,也不具备可扩展性,这样的分布式系统没法在云计算这么复杂的场景下使用。
发明内容
本发明的一个目的是提供一种元数据交互方法及系统,能够解决单纯的利用一致性系统存储元数据,会造成单机存储性能的下降和存储容量的限制,数据存储站点数量受一致性协议Quorum节点数的限制的问题。
根据本发明的一个方面,提供了一种前端机上的元数据交互方法,该方法包括:
接收用户的更新元数据请求,通过向后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复当前已经拉取的元数据的位置,以供所述后端机根据所述位置删除其内部存储的所述已经拉取的元数据。
进一步的,上述方法中,将拉取到的元数据存储至前端机所在地域的本地存储系统之后还包括:
接收用户的读取元数据请求;
根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,
若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户。
进一步的,上述方法中,从所述前端机所在地域的本地存储系统获取对应的元数据之后,还包括:
若未从所述本地存储系统获取到,通过向所述后端机发送所述读取元数据请求,从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户。
进一步的,上述方法中,所述前端机采用主/备服务器架构。
进一步的,上述方法中,接收用户的更新元数据请求或接收用户的读取元数据请求之前,包括:
所述主服务器和备服务器向所述后端机发送注册请求;
所述主服务器和备服务器从所述后端机接收注册成功信息后,所述主服务器从所述后端机获取当前已经拉取的元数据的位置。
进一步的,上述方法中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换。
进一步的,上述方法中,分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换的同时,还包括:
下线的主服务器和备服务器,向所述分布式锁服务系统发送注销请求,从所述后端机接收注销结果信息;
新上线的主服务器和备服务器向所述后端机发送注册请求,并从所述后端机接收注册成功信息后,新上线的主服务器从所述后端机获取当前已经拉取的元数据的位置。
进一步的,上述方法中,接收用户的更新元数据请求,通过向所述后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机,包括:
所述主服务器或备服务器从一负载均衡服务器获取用户的更新元数据请求,所述主服务器或备服务器通过向所述后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复已经拉取的元数据的位置,包括:
所述主服务器从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复已经拉取的元数据的位置。
进一步的,上述方法中,接收用户的读取元数据请求;根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户,包括:
所述主服务器或备服务器从所述负载均衡服务器接收用户的读取元数据请求;
所述主服务器或备服务器根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户。
进一步的,上述方法中,若未从所述本地存储系统获取到,从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户包括:
若未从所述本地存储系统获取到,所述主服务器或备服务器从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户。
根据本发明的另一面,还提供一种后端机上的元数据交互方法,其中,包括:
从前端机接收用户的更新元数据请求,根据所述用户的更新元数据请求将对应的元数据更新;
向所述前端机发送元数据,并从所述前端机接收当前已经拉取的元数据的位置,根据所述位置删除所述已经拉取的元数据。
进一步的,上述方法中,向所述前端机发送元数据之后,还包括:
从所述前端机获取用户的读取元数据请求,根据所述读取元数据请求向所述前端机发送对应的元数据。
进一步的,上述方法中,所述前端机采用主/备服务器架构。
进一步的,上述方法中,从前端机接收用户的更新元数据请求或从所述前端机获取用户的读取元数据请求之前,还包括:
从所述主服务器和备服务器接收注册请求;
根据所述注册请求对所述主服务器和备服务器进行注册后,向所述主服务器和备服务器发送注册成功信息和向主服务器发送当前已经拉取的元数据的位置。
进一步的,上述方法中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换。
进一步的,上述方法中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换的同时,还包括:
从下线的主服务器和/或备服务器接收注销请求,根据所述注销请求将下线的主服务器和/或备服务器进行注销后,向所述下线的主服务器和/或备服务器发送注销结果信息;
从新上线的主服务器和/或备服务器接收注册请求,根据所述注册请求将所述新上线的主服务器和/或备服务器进行注册后,向所述新上线的主服务器和/或备服务器发送注册成功信息和向新上线的主服务器发送当前已经拉取的元数据的位置。
进一步的,上述方法中,将对应的元数据更新的同时,还包括:
当所述元数据为日志时,根据当前存储的元数据,生成对应快照并存储;
根据所述位置删除所述已经拉取的元数据的同时还包括:
删除对应的快照。
根据本发明的另一面,还提供一种前端机,该前端机包括:
发起更新装置,用于接收用户的更新元数据请求,通过向所述后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
拉取装置,从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复当前已经拉取的元数据的位置,以供所述后端机根据所述位置删除其内部存储的所述已经拉取的元数据。
进一步的,上述前端机中,还包括读取装置,用于接收用户的读取元数据请求;根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户。
进一步的,上述前端机中,所述读取装置,还用于若未从所述本地存储系统获取到,通过向所述后端机发送所述读取元数据请求,从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户。
进一步的,上述前端机中,所述前端机采用主/备服务器架构。
进一步的,上述前端机中,还包括发起注册装置,用于供所述主服务器和备服务器向所述后端机发送注册请求;所述主服务器和备服务器从所述后端机接收注册成功信息后,所述主服务器从所述后端机获取当前已经拉取的元数据的位置。
进一步的,上述前端机中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换。
进一步的,上述前端机中,还包括发起注销装置,用于供下线的主服务器和备服务器,向所述分布式锁服务系统发送注销请求,从所述后端机接收注销结果信息;
所述发起注册装置,还用于新上线的主服务器和备服务器向所述后端机发送注册请求,并从所述后端机接收注册成功信息后,新上线的主服务器从所述后端机获取当前已经拉取的元数据的位置。
进一步的,上述前端机中,所述发起更新装置,用于供所述主服务器或备服务器从一负载均衡服务器获取用户的更新元数据请求,所述主服务器或备服务器通过向所述后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
所述拉取装置,用于供所述主服务器从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复已经拉取的元数据的位置。
进一步的,上述前端机中,所述读取装置用于供所述主服务器或备服务器从所述负载均衡服务器接收用户的读取元数据请求;及供所述主服务器或备服务器根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户。
进一步的,上述前端机中,所述读取装置,还用于若未从所述本地存储系统获取到,供所述主服务器或备服务器从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户。
根据本发明另一面,还提供一种后端机,包括:
更新装置,用于从前端机接收用户的更新元数据请求,根据所述用户的更新元数据请求将对应的元数据更新;
发送装置,向所述前端机发送元数据,并从所述前端机接收当前已经拉取的元数据的位置,根据所述位置删除所述已经拉取的元数据。
进一步的,上述后端机中,所述发送装置,还用于从所述前端机获取用户的读取元数据请求,根据所述读取元数据请求向所述前端机发送对应的元数据。
进一步的,上述后端机中,所述前端机采用主/备服务器架构。
进一步的,上述后端机中,还包括注册装置,用于:从所述主服务器和备服务器接收注册请求;根据所述注册请求对所述主服务器和备服务器进行注册后,向所述主服务器和备服务器发送注册成功信息和向主服务器发送当前已经拉取的元数据的位置。
进一步的,上述后端机中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换。
进一步的,上述后端机中,所述注册装置,还用于从下线的主服务器和/或备服务器接收注销请求,根据所述注销请求将下线的主服务器和/或备服务器进行注销后,向所述下线的主服务器和/或备服务器发送注销结果信息;
所述注册装置,还用于从新上线的主服务器和/或备服务器接收注册请求,根据所述注册请求将所述新上线的主服务器和/或备服务器进行注册后,向所述新上线的主服务器和/或备服务器发送注册成功信息和向新上线的主服务器发送当前已经拉取的元数据的位置。
进一步的,上述后端机中,所述更新装置,还用于将对应的元数据更新的同时,当所述元数据为日志时,根据当前存储的元数据,生成对应快照并存储;
所述发送装置,还用于根据所述位置删除所述已经拉取的元数据的同时,删除对应的快照。
根据本发明的另一面,还提供一种基于计算的设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
接收用户的更新元数据请求,通过向所述后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复当前已经拉取的元数据的位置,以供所述后端机根据所述位置删除其内部存储的所述已经拉取的元数据。
根据本发明的另一面,还提供一种基于计算的设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
从前端机接收用户的更新元数据请求,根据所述用户的更新元数据请求将对应的元数据更新;
向所述前端机发送元数据,并从所述前端机接收当前已经拉取的元数据的位置,根据所述位置删除所述已经拉取的元数据。
与现有技术相比,本发明通过前端机(Frontend)不断从所述后端机(NuwaLog)上拉取(pull)元数据,并不断将拉取到的元数据存储(Apply)至前端机所在地域的本地存储系统(OTS),并向所述后端机(NuwaLog)回复(SendAck)当前已经拉取的元数据的位置,所述后端机(NuwaLog)根据所述位置删除其内部存储的所述已经拉取(pull)的元数据,后端机(NuwaLog)不需要存储所有的元数据,只需要存储还未拉取到本地存储系统(OTS),可以避免后端机(NuwaLog)的单机存储性能的下降和存储容量的限制,数据存储站点数量受一致性协议Quorum节点数的限制的问题,达到整个系统的数据一致性、正确性与健壮性,另外,前端机(Frontend)和本地存储系统(OTS)可以实现按需要进行扩展。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出现有的跨地域强一致性元数据存储系统的架构图;
图2示出本发明一实施例的跨地域强一致性系统的简易组件图;
图3示出本发明一实施例的跨地域强一致性系统协议交互通信图。
具体实施方式
下面结合附图对本发明作进一步详细描述。
在本申请一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
下面以元数据是日志为例,对本发明进行详细介绍,本领域技术人员能够理解,所述元数据包括但不限于日志等数据,元数据可以是各种描述数据属性(property)的信息,用来支持如指示存储位置、历史数据、资源查找、文件记录等功能。首先给出本发明设计的log和snapshot分离的跨地域强一致性系统(Global Meta System)的简易组件图如图2所示,从图2的简易组件图可以看出,有三个server(服务)组件,分别为:
分布式一致性系统(NuwaLog),前端机(Frontend)和本地存储系统(bulk localstorage),其中,
分布式一致性系统(NuwaLog)是后端Log一致性存储系统,其是一个Quorum,是一个事务性日志提交系统,前端机(Frontend)接收到的用户(client/user)的内容会组装成log写到后端NuwaLog,其能够针对用户的数据做到一致性并高可靠,具有failover(故障切换)情况下不丢数据的功能,所有的请求在NuwaLog里面都只是一条Log而已,不需要理解该Log的任何含义,其中,Log为事务性日志,也就是用户发送的请求数据,在NuwaLog后端系统中统一称为Log;
前端机(Frontend)分别在每个地域部署,起前端中转用户请求的作用,以及与NuwaLog推拉数据的功能;
本地存储系统(bulk local storage)为一云开放存储系统,分别在前端机所在的每个地域部署,作为各地域(region)内的大规模本地存储。在此bulk local storage可是本地的大规模表格存储系统,例如可以是OTS或HDFS系统,能够持久化存储用户的大量数据。
当用户(client/user/user)向前端机(Frontend)发送向请求,整个跨地域强一致性系统(Global Meta System)的运行需要各个组件间交互协议的设计合理才能达到系统的正确性与健壮性。
本发明在构建跨地域强一致性元数据系统(Global Meta System)时,需要对于后端分布式一致性系统(NuwaLog)进行log和snapshot的分离,每个地域的本地存储系统存储snapshot全量数据,后端机(NuwaLog)只存储log,而且log会随着前端机(Frontend)的读取不断删除(trim)掉。所述后端机可以为一后端一致性系统。所以这里面临着通常业界分布式一致性系统的拆分。分布式一致性系统拆分后的服务组件之多,系统之间组件间通信协议比较复杂,而且需要保证系统数据的正确性,一致性,可靠性等要素。
如图3所示,本发明一实施例中Frontend与BulkStorageSystem以及NuwaLog交互协议API有:
(1)Register/UnRegister:frontend向NuwaLog注册或者注销frontendID号;
(2)GetTrimPoint:frontend去NuwaLog获取要pull数据的Log NXID号;
(3)Submit(也称为Write):frontend提交写请求事务性log日志到NuwaLog系统;
(4)Pull:frontend去NuwaLog上拉取数据;
(5)Ack:frontend向BulkStorage写入pull来的数据,并向NuwaLog确认数据写入的最后一个Log的NXID号。
如图3所示,本发明提供一种前端机上的元数据交互方法,该方法包括:
前端机(Frontend)接收用户的更新日志请求,通过向所述后端机(NuwaLog)发送所述用户的更新日志请求,将对应的日志(Log)更新入后端机(NuwaLog)中;在此,NuwaLog会接收所有frontend的请求,会存储log;在此所述更新可以包括写入和/或写入后的修改;
前端机(Frontend)不断从所述后端机(NuwaLog)上拉取(pull)日志,并不断将拉取到的日志存储(Apply)至前端机所在地域的本地存储系统(OTS),并向所述后端机(NuwaLog)回复(SendAck)当前已经拉取的日志的位置,以供所述后端机(NuwaLog)根据所述位置删除其内部存储的所述已经拉取(pull)的日志。
在此,NuwaLog会接收所有前端机(Frontend)发出的请求,会存储Log。前端机(Frontend)可以启动两个线程,一个线程不断从NuwaLog上拉Log数据,另一个线程不断往OTS里面写数据,并回复NuwaLog已经pull下来的位置,NuwaLog那边会根据接收到的位置删除掉(trim)所有前端机(Frontend)回复的多个位置中已经pull下来的log的最小ID号的下一个ID号即NXID号之前所有的log,例如目前有三台前端机A、B和C,另后端NuwaLog中原来有10条日志,各条日志对应为1~10的ID号,各前端机拉取日志均从最小的ID号1开始拉取,若当前端机A拉取到了ID号为3的日志后,向NuwaLog回复NXID号位置为4,此时前端机B拉取到了ID号为4的日志后,向NuwaLog回复NXID号位置为5,此时前端机C拉取到了ID号为5的日志后,向NuwaLog回复NXID号位置为6,那么后续NuwaLog仅会将ID号为4之前的ID号为1~3的已经拉取的日志从其存储空间内删除,因为ID号为4~5的日志有部分前端机没有拉取完,需要待所有前端机拉取完后才能删除。本实施例通过前端机(Frontend)不断从所述后端机(NuwaLog)上拉取日志,并不断将拉取到的日志存储至前端机所在地域的本地存储系统(OTS),向所述后端机(NuwaLog)回复当前已经拉取的日志的位置,所述后端机(NuwaLog)根据所述位置删除其内部存储的所述已经拉取的日志,这样后端机(NuwaLog)不需要存储所有的日志,只需要存储还未拉取到本地存储系统(OTS),可以避免后端机(NuwaLog)的单机存储性能的下降和存储容量的限制,数据存储站点数量受一致性协议Quorum节点数的限制的问题,达到整个系统的数据一致性、正确性与健壮性,另外,前端机(Frontend)和本地存储系统(OTS)可以实现按需要进行扩展。
本发明一实施例中,如图3所示,前端机(Frontend)将拉取到的日志存储至前端机所在地域的本地存储系统之后还包括:
接收用户的读取(get)日志请求;
前端机(Frontend)根据所述读取日志请求,从所述前端机所在地域的本地存储系统获取对应的日志,
若从所述本地存储系统获取到,则前端机(Frontend)将获取到的日志回复至所述用户。从而可以避免所有的非事务性操作请求都发送到后端机,以减轻后端机的工作负担,另外,通过对应地域的前端机从前端机所在地域的本地存储系统获取对应的日志也可以提高用户的读取日志请求的响应速度,从而提高读取数据性能,例如在纽约的用户可以通过纽约的前端机(Frontend)从纽约的本地存储系统读取日志,在北京的用户可以通过纽约的前端机(Frontend)从北京的本地存储系统读取日志。在此,事务性操作指的是写/更新等可以改变后端机(NuwaLog)中的log数据的请求;非事务性操作指的是读等不改变后端机(NuwaLog)log数据的请求。
本发明一实施例中,从所述前端机所在地域的本地存储系统获取对应的日志之后,还包括:
若未从所述本地存储系统获取到,通过向所述后端机发送所述读取日志请求,从所述后端机获取(strong read)对应的日志后,将获取到的日志回复至所述用户,本实施例是对上一实施例所述前端机从其所在地域的本地存储系统获取对应的日志的方案的优化补充,避免当用户需要读取的日志尚未拉取到对应地域的本地存储系统中的情况发生时,也能及时响应用户的日志读取请求,直接从后端机(NuwaLog)中读取即可。
本发明一实施例中,所述前端机采用主/备服务器(master/slave)架构。在此,采用master/slave架构,可避免Frontend单点故障,导致本地域(region)的本地存储系统(Bulk storage system)中的日志数据得不到更新。
本发明一实施例中,接收用户的更新日志请求或接收用户的读取日志请求之前,包括:
所述主服务器和备服务器向所述后端机发送注册请求;
所述主服务器和备服务器从所述后端机接收注册成功信息后,所述主服务器从所述后端机获取当前已经拉取的日志的位置。在此,每一个地域的Frontend包括所述主服务器和备服务器都需要注册到NuwaLog上,这样NuwaLog才能够找到对应的Frontend发送请求结果,具体来说,如图3所示,每个Frontend启动的时候,可先调用register注册到NuwaLog,由于主服务器负责事务性操作,注册成功之后主服务器可调用GetTrimPoint来获取后端NuwaLog当前已经删除的日志下一个位置ID号,例如当前删除到ID号为3号的日志,则获取到当前已经拉取的日志的位置为4,即主服务器下一次从位置4开始拉取日志。
本发明一实施例中,如图3所示,由一分布式锁服务系统(Nuwa Lock Service)对所述前端机中的主服务器和备服务器进行切换。在此,为了避免Frontend单点故障,导致本地域(region)的本地存储系统(Bulk storage system)中的日志数据得不到更新了,这里采取master/slave架构,保证每次只有主服务器(master)进行事务性操作,当主服务器(master)故障之后能够通过NuwaLockService重新进行选主,也就是选择master,NuwaLockService就是可以提供分布式锁协议,能够适用于frontend进行master选主。
本发明一实施例中,分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换的同时,还包括:
下线的主服务器和备服务器,向所述分布式锁服务系统发送注销请求,从所述后端机接收注销结果信息;
新上线的主服务器和备服务器向所述后端机发送注册请求,并从所述后端机接收注册成功信息后,新上线的主服务器从所述后端机获取当前已经拉取的日志的位置。在此,每一个地域的Frontend都需要注册到NuwaLog上,包括新上线的主服务器和备服务器,这样NuwaLog才能够找到对应的Frontend发送请求结果,具体来说,如图3所示,每个新上线的主服务器和备服务器启动的时候,可先调用register注册到NuwaLog,由于只有主服务器(master)进行事务性操作,所以注册成功之后主服务器(master)可调用GetTrimPoint来获取后端NuwaLog当前已经删除的日志下一个位置ID号,例如当前删除到ID号为3号的日志,则获取到当前已经拉取的日志的位置为4,即主服务器(master)下一次从位置4开始pull日志。另外,当下线掉Frontend包括主服务器和备服务器的时候,需要调用unregister来从NuwaLog中下线掉Frontend。
本发明一实施例中,如图3所示,从一负载均衡服务器(VIP Server)获取用户的更新日志请求,通过向所述后端机发送所述用户的更新日志请求,将对应的日志更新入后端机的工作,可由所述主服务器或备服务器完成;
而不断从所述后端机上拉取日志(Pull logs),并不断将拉取到的日志存储至前端机所在地域的本地存储系统(Apply logs),并向所述后端机回复已经拉取的日志的位置(Send Ack)的事务性工作,只由所述主服务器来完成,从而保证整个系统的数据一致性。
本发明一实施例中,接收用户的读取日志请求;根据所述读取日志请求,从所述前端机所在地域的本地存储系统获取对应的日志,若从所述本地存储系统获取到,则将获取到的日志回复至所述用户,包括:
如图3所示,所述主服务器(master)或备服务器(slave)从所述负载均衡服务器(VIP Server)接收用户的读取日志请求;
所述主服务器或备服务器根据所述读取日志请求,从所述前端机所在地域的本地存储系统获取对应的日志,若从所述本地存储系统获取到,则将获取到的日志回复至所述用户。负载均衡服务器(VIP Server)起到负载均衡的作用,client/user只需要访问一个IP或者域名,也就是VIP server的IP地址或者域名地址,VIP Server可以设置挂载多个Frontend,配置上每个机器上的frontend的ip和port即可。用户client/user发来的请求会由VIPServer按照某种负载均衡的策略选择其中一台主服务器或备服务器并向其发送请求。
本发明一实施例中,若未从所述本地存储系统获取到,从所述后端机获取对应的日志后,将获取到的日志回复至所述用户包括:
若未从所述本地存储系统获取到,所述主服务器或备服务器从所述后端机获取对应的日志后,将获取到的日志回复至所述用户。在此,非事务性的从所述后端机获取对应的日志,可所述负载均衡服务器(VIP Server)选择其中一台主服务器或备服务器完成,起到更好的负载均衡的效果。
根据本发明的另一面,还提供一种后端机上的元数据交互方法,其中,包括:
如图3所示,后端机NuwaLog从前端机(Frontend)接收用户的更新日志请求,根据所述用户的更新日志请求将对应的日志更新;
后端机NuwaLog不断向所述前端机(Frontend)发送日志,并从所述前端机接收当前已经拉取的日志的位置,根据所述位置删除所述已经拉取的日志。
在此,NuwaLog会接收所有前端机(Frontend)发出的请求,会存储Log。前端机(Frontend)可以启动两个线程,一个线程不断从NuwaLog上拉Log数据,另一个线程不断往OTS里面写数据,并回复NuwaLog已经pull下来的位置,NuwaLog这边会根据接收到的位置删除掉(trim)所有前端机(Frontend)回复的多个位置中已经pull下来的log的最小ID号的下一个ID号即NXID号之前所有的log,例如目前有三台前端机A、B和C,另后端NuwaLog中原来有10条日志,各条日志对应为1~10的ID号,各前端机拉取日志均从最小的ID号1开始拉取,若当前端机A拉取到了ID号为3的日志后,向NuwaLog回复NXID号位置为4,此时前端机B拉取到了ID号为4的日志后,向NuwaLog回复NXID号位置为5,此时前端机C拉取到了ID号为5的日志后,向NuwaLog回复NXID号位置为6,那么后续NuwaLog仅会将ID号为4之前的ID号为1~3的已经拉取的日志从其存储空间内删除,因为ID号为4~5的日志有部分前端机没有拉取完,需要待所有前端机拉取完后才能删除。本实施例通过前端机(Frontend)不断从所述后端机(NuwaLog)上拉取日志,并不断将拉取到的日志存储至前端机所在地域的本地存储系统(OTS),向所述后端机(NuwaLog)回复当前已经拉取的日志的位置,所述后端机(NuwaLog)根据所述位置删除其内部存储的所述已经拉取的日志,这样后端机(NuwaLog)不需要存储所有的日志,只需要存储还未拉取到本地存储系统(OTS),可以避免后端机(NuwaLog)的单机存储性能的下降和存储容量的限制,数据存储站点数量受一致性协议Quorum节点数的限制的问题,达到整个系统的数据一致性、正确性与健壮性。
本发明一实施例中,如图3所示,后端机NuwaLog不断向所述前端机发送日志之后,还包括:
后端机NuwaLog从所述前端机(Frontend)获取用户的读取日志请求,根据所述读取日志请求向所述前端机发送对应的日志。本实施例是对所述前端机从其所在地域的本地存储系统获取对应的日志的方案的优化补充,避免当用户需要读取的日志尚未拉取到对应地域的本地存储系统中的情况发生时,也能及时响应用户的日志读取请求,直接从后端机(NuwaLog)中读取即可。
本发明一实施例中,所述前端机采用主/备服务器架构。在此,采用master/slave架构,可避免Frontend单点故障,导致本地域(region)的本地存储系统(Bulk storagesystem)中的日志数据得不到更新。
本发明一实施例中,后端机NuwaLog从前端机接收用户的更新日志请求或从所述前端机获取用户的读取日志请求之前,还包括:
后端机NuwaLog从所述主服务器和备服务器接收注册请求;
后端机NuwaLog根据所述注册请求对所述主服务器和备服务器进行注册后,向所述主服务器和备服务器发送注册成功信息和向主服务器发送当前已经拉取的日志的位置。在此,每一个地域的Frontend包括所述主服务器和备服务器都需要注册到NuwaLog上,这样NuwaLog才能够找到对应的Frontend发送请求结果,具体来说,如图3所示,每个Frontend启动的时候,可先调用register注册到NuwaLog,由于主服务器负责事务性操作,注册成功之后主服务器可调用GetTrimPoint来获取后端NuwaLog当前已经删除的日志下一个位置ID号,例如当前删除到ID号为3号的日志,则获取到当前已经拉取的日志的位置为4,即主服务器下一次从位置4开始拉取日志。
本发明一实施例中,由一分布式锁服务系统(Nuwa Lock Service)对所述前端机中的主服务器和备服务器进行切换。在此,为了避免Frontend单点故障,导致本地域(region)的本地存储系统(Bulk storage system)中的日志数据得不到更新了,这里采取master/slave架构保证每次只有主服务器(master)进行事务性操作,当主服务器(master)故障之后能够通过Nuwa Lock Service重新进行选主,也就是选择master,Nuwa LockService可以提供分布式锁协议,能够适用于frontend进行master选主。
本发明一实施例中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换的同时,还包括:
如图3所示,后端机NuwaLog从下线的主服务器和/或备服务器接收注销请求,根据所述注销请求将下线的主服务器和/或备服务器进行注销后,向所述下线的主服务器和/或备服务器发送注销结果信息;
后端机NuwaLog从新上线的主服务器和/或备服务器接收注册请求,根据所述注册请求将所述新上线的主服务器和/或备服务器进行注册后,向所述新上线的主服务器和/或备服务器发送注册成功信息和向新上线的主服务器发送当前已经拉取的日志的位置。在此,每一个地域的Frontend都需要注册到NuwaLog上,包括新上线的主服务器和备服务器,这样NuwaLog才能够找到对应的Frontend发送请求结果,具体来说,如图3所示,每个新上线的主服务器和备服务器启动的时候,可先调用register注册到NuwaLog,由于只有主服务器(master)进行事务性操作,所以注册成功之后主服务器(master)可调用GetTrimPoint来获取后端NuwaLog当前已经删除的日志下一个位置ID号,例如当前删除到ID号为3号的日志,则获取到当前已经拉取的日志的位置为4,即主服务器(master)下一次从位置4开始pull日志。另外,当下线掉Frontend包括主服务器和备服务器的时候,需要调用unregister来从NuwaLog中下线掉Frontend。
本发明一实施例中,如图3所示,后端机NuwaLog将对应的日志更新的同时,还包括:
后端机NuwaLog当所述元数据为日志时,根据当前存储的日志,生成对应快照并存储;
后端机NuwaLog根据所述位置删除所述已经拉取的日志的同时还包括:
后端机NuwaLog删除对应快照。在此,Snapshot为快照,也就是NuwaLog系统中某一时刻内存中全量数据的快照。NuwaLog会接收所有frontend的请求,会存储log和snapshot,这里存储snapshot是为了解决NuwaLog发生故障切换(failover)的情况,而且log数据还没有传到本地的OTS中,NuwaLog重新启动能够从snapshot中恢复还没有传输到OTS中的数据,NuwaLog根据所述位置删除所述已经拉取的日志的同时,每隔一段时间删除对应磁盘上的snapshot文件,避免存储过期无用的snapshot。
本发明一实施例中,前端frontend与后端NuwaLog之间可以采用avro序列化方式,利用Netty作为RPC通信。这里选择使用avro协议的原因是该序列化协议比较简单并高效。Netty作为业界通用的RPC协议,在JAVA领域是一个成熟度并高效的远程网络通信协议。
详细地,下面讲解下各个组成部件的工作数据流向:
图3中,有三类工作数据流向,分别用不同的线型表示,其中,第一类是前端机启动操作(Frontend bootstrap operations),包括主服务器(master)和备服务器(slave)启动操作;第二类是正常的读写操作(Normal read write operations),可以由主服务器(master)或备服务器(slave)从负载均衡服务器接收对应的请求进行操作;第三类是只有主服务器进行的操作(Master only operations),包括Pull logs、Apply logs和SendAck。
从Frontend角度来说,工作数据流向如下:
1.如图3所示,前端机启动操作(Frontend bootstrap operations),也就是启动的时候,可先调用register注册到NuwaLog,由于主服务器负责事务性操作,注册成功之后主服务器可调用GetTrimPoint来获取后端NuwaLog当前已经删除的日志下一个位置NXID号,例如当前删除到ID号为3号的日志,则获取到当前已经拉取的日志的位置为4,即主服务器下一次从位置4开始pull日志。当下线掉Frontend的时候,需要调用unregister来从NuwaLog中下线掉Frontend;
2.Pulllogs与Applylogs是frontend中的一个线程来做的事情,每隔一段时间从后端NuwaLog中拖取log,然后Apply到Bulk storage System中;
3.SendAck是frontend Apply logs到Bulk Storage System的那个NXID,由Frontend汇报给NuwaLog该Frontend已经拖取下来并成功写到Bulk Storage中的log的最后一个ID号的下一个ID号即NXID;
4.Frontend接收client/user发来的put/get/delete请求,put/delete这些事务性请求需要发送到NuwaLog中,get是非事务性操作发往Bulk Storage中。
从NuwaLog角度来说,工作数据流向如下:
1.存储Frontend发送来的put请求,将数据以log的形式写到NuwaLog中;
2.与Frontend进行pull与ack的交互,将log发给Frontend,以及回复现在Frontend发给NuwaLog的ack成功的NXID;
3.当client/user发给Frontend的read请求,Frontend如果从BulkStorage中没有获取到,那么就需要给NuwaLog发strongread请求,直接去NuwaLog后端获取数据。
从Bulk Storage System角度来说,工作数据流向如下:
Bulk Storage System是永久性存储系统,这个存储全量的log数据,Frontend与Bulk Storage交互,传输log以及获取log。
具体API协议制定为的规则包括:所有的Response返回信息中都会有字段rc,message,traceinfo,rc代表返回码,message代表返回的信息,traceinfo可以跟踪快慢请求的作用,具体来说,
1.Register与UnRegister的Request与Response
Register与UnRegister的Request与Response进行avro序列化,Frontend启动的时候会向NuwaLog后端注册一个frontendID,因为每个region都会有多个frontend,所以NuwaLog后端才知道将信息发送给那个frontend。
2.GetTrimPoint的Request与Response
GetTrimPoint的Request与Response进行avro序列化,主服务器启动的时候会去NuwaLog后端获取Trim Point的log的NXID,这个在frontend发生failover的时候,新上线的主服务器也会去获取Trim Point点。这个Trim Point点供主服务器的Pull线程使用,pull线程凭借此Trim Point点去后端获取Log信息。
3.Submit的Request与Response
Submit的Request与Response进行avro序列化。对于Submit请求,request在frontend这端会组装成一个事务性Log请求,response返回返回码以及返回信息。
4.Pull的Request与Response
Pull的Request与Response进行avro序列化。Frontend会启动一个pull线程定时去NuwaLog上拿log序列数组,request是当前的log的Nxid,控制流量的最大log数量和最大log字节。response是返回码以及返回信息,log数组信息(log里面包括该log的nxid,log的内容)。
5.Ack的Request(请求)与Response(响应)
Ack的Request与Response进行avro序列化。Frontend也会启动一个ack线程定时从Pull线程拉取的log数据队列,从该队列中拉数据到本地OTS中,当commit(确认)成功之后,去向NuwaLog确认一个信息,request是commit到本地OTS成功的最大的nxid,response是返回码以及返回信息。
上述五个API可以通过restful协议来传输,所以需要制定标准的http协议头与协议体。如下:
Request示例中,所使用的每个字段的含义是:
1.URL:标明发往的服务端的ip和端口号port;
2.REQUEST:标明这是个HTTPPOST请求,并指明访问的资源路径path;
3.Http Headers:是http头部,这里面需要标明协议是avro,其中NuwaNeuron-Action是标明这个http请求发起的行为,这里面几个行为是:Submit,Pull,Ack,Register,UnRegister。NuwaNeuron-Timestamp标明这个http请求发起的时间戳,NuwaNeuron-API-Version标明这个http请求的版本号。NuwaNeuron-PackageId标明这个http请求发起的包的序号。
NuwaNeuron-RequestId标明这个http请求发起的ID号。
Response示例中,所使用的每个字段的含义是:
http请求返回的response,其中包括response header以及http body。header中包括Content-type,标明这个请求内容的类型,这里是avro。Content-length标明http返回请求内容的长度。NuwaNeuron-Timestamp标明这个http response的时间戳,Nuwa Neuron-RequestId标明这个http请求的request ID号,同前述。
根据本发明的另一面,还提供一种前端机,其中,该前端机包括:
发起更新装置,用于接收用户的更新日志请求,通过向所述后端机发送所述用户的更新日志请求,将对应的日志更新入后端机;
拉取装置,从所述后端机上拉取日志,并将拉取到的日志存储至前端机所在地域的本地存储系统,并向所述后端机回复当前已经拉取的日志的位置,以供所述后端机根据所述位置删除其内部存储的所述已经拉取的日志。
在此,NuwaLog会接收所有前端机(Frontend)发出的请求,会存储Log。前端机(Frontend)可以启动两个线程,一个线程不断从NuwaLog上拉Log数据,另一个线程不断往OTS里面写数据,并回复NuwaLog已经pull下来的位置,NuwaLog那边会根据接收到的位置删除掉(trim)所有前端机(Frontend)回复的多个位置中已经pull下来的log的最小ID号的下一个ID号即NXID号之前所有的log,例如目前有三台前端机A、B和C,另后端NuwaLog中原来有10条日志,各条日志对应为1~10的ID号,各前端机拉取日志均从最小的ID号1开始拉取,若当前端机A拉取到了ID号为3的日志后,向NuwaLog回复NXID号位置为4,此时前端机B拉取到了ID号为4的日志后,向NuwaLog回复NXID号位置为5,此时前端机C拉取到了ID号为5的日志后,向NuwaLog回复NXID号位置为6,那么后续NuwaLog仅会将ID号为4之前的ID号为1~3的已经拉取的日志从其存储空间内删除,因为ID号为4~5的日志有部分前端机没有拉取完,需要待所有前端机拉取完后才能删除。本实施例通过前端机(Frontend)不断从所述后端机(NuwaLog)上拉取日志,并不断将拉取到的日志存储至前端机所在地域的本地存储系统(OTS),向所述后端机(NuwaLog)回复当前已经拉取的日志的位置,所述后端机(NuwaLog)根据所述位置删除其内部存储的所述已经拉取的日志,这样后端机(NuwaLog)不需要存储所有的日志,只需要存储还未拉取到本地存储系统(OTS),可以避免后端机(NuwaLog)的单机存储性能的下降和存储容量的限制,数据存储站点数量受一致性协议Quorum节点数的限制的问题,达到整个系统的数据一致性、正确性与健壮性,另外,前端机(Frontend)和本地存储系统(OTS)可以实现按需要进行扩展。
本发明一实施例中,所述的前端机还包括读取装置,用于接收用户的读取日志请求;根据所述读取日志请求,从所述前端机所在地域的本地存储系统获取对应的日志,若从所述本地存储系统获取到,则将获取到的日志回复至所述用户。从而可以避免所有的非事务性操作请求都发送到后端机,以减轻后端机的工作负担,另外,通过对应地域的前端机从前端机所在地域的本地存储系统获取对应的日志也可以提高用户的读取日志请求的响应速度,从而提高读取数据性能,例如在纽约的用户可以通过纽约的前端机(Frontend)从纽约的本地存储系统读取日志,在北京的用户可以通过纽约的前端机(Frontend)从北京的本地存储系统读取日志。在此,事务性操作指的是写/更新等可以改变后端机(NuwaLog)中的log数据的请求;非事务性操作指的是读等不改变后端机(NuwaLog)log数据的请求。
本发明一实施例中,所述读取装置,还用于若未从所述本地存储系统获取到,通过向所述后端机发送所述读取日志请求,从所述后端机获取对应的日志后,将获取到的日志回复至所述用户。本实施例是对上一实施例所述前端机从其所在地域的本地存储系统获取对应的日志的方案的优化补充,避免当用户需要读取的日志尚未拉取到对应地域的本地存储系统中的情况发生时,也能及时响应用户的日志读取请求,直接从后端机(NuwaLog)中读取即可。
本发明一实施例中,所述前端机采用主/备服务器(master/slave)架构。在此,采用master/slave架构,可避免Frontend单点故障,导致本地域(region)的本地存储系统(Bulk storage system)中的日志数据得不到更新。
本发明一实施例中,所述的前端机还包括发起注册装置,用于供所述主服务器和备服务器向所述后端机发送注册请求;所述主服务器和备服务器从所述后端机接收注册成功信息后,所述主服务器从所述后端机获取当前已经拉取的日志的位置。在此,每一个地域的Frontend包括所述主服务器和备服务器都需要注册到NuwaLog上,这样NuwaLog才能够找到对应的Frontend发送请求结果,具体来说,如图3所示,每个Frontend启动的时候,可先调用register注册到NuwaLog,由于主服务器负责事务性操作,注册成功之后主服务器可调用GetTrimPoint来获取后端NuwaLog当前已经删除的日志下一个位置ID号,例如当前删除到ID号为3号的日志,则获取到当前已经拉取的日志的位置为4,即主服务器下一次从位置4开始拉取日志。
本发明一实施例中,由一分布式锁服务系统(Nuwa Lock Service)对所述前端机中的主服务器和备服务器进行切换。在此,为了避免Frontend单点故障,导致本地域(region)的本地存储系统(Bulk storage system)中的日志数据得不到更新了,这里采取master/slave架构,保证每次只有主服务器(master)进行事务性操作,当主服务器(master)故障之后能够通过Nuwa Lock Service重新进行选主,也就是选择master,NuwaLock Service就是可以提供分布式锁协议,能够适用于frontend进行master选主。
本发明一实施例中,所述的前端机还包括发起注销装置,用于供下线的主服务器和备服务器,向所述分布式锁服务系统发送注销请求,从所述后端机接收注销结果信息;
所述发起注册装置,还用于新上线的主服务器和备服务器向所述后端机发送注册请求,并从所述后端机接收注册成功信息后,新上线的主服务器从所述后端机获取当前已经拉取的日志的位置。在此,每一个地域的Frontend都需要注册到NuwaLog上,包括新上线的主服务器和备服务器,这样NuwaLog才能够找到对应的Frontend发送请求结果,具体来说,如图3所示,每个新上线的主服务器和备服务器启动的时候,可先调用register注册到NuwaLog,由于只有主服务器(master)进行事务性操作,所以注册成功之后主服务器(master)可调用GetTrimPoint来获取后端NuwaLog当前已经删除的日志下一个位置ID号,例如当前删除到ID号为3号的日志,则获取到当前已经拉取的日志的位置为4,即主服务器(master)下一次从位置4开始pull日志。另外,当下线掉Frontend包括主服务器和备服务器的时候,需要调用unregister来从NuwaLog中下线掉Frontend。
本发明一实施例中,所述发起更新装置,用于供所述主服务器或备服务器从一负载均衡服务器获取用户的更新日志请求,所述主服务器或备服务器通过向所述后端机发送所述用户的更新日志请求,将对应的日志更新入后端机;
所述拉取装置,用于供所述主服务器不断从所述后端机上拉取日志,并不断将拉取到的日志存储至前端机所在地域的本地存储系统,并向所述后端机回复已经拉取的日志的位置。如图3所示,从一负载均衡服务器(VIP Server)获取用户的更新日志请求,通过向所述后端机发送所述用户的更新日志请求,将对应的日志更新入后端机的工作,可由所述主服务器或备服务器完成;
而不断从所述后端机上拉取日志(Pull logs),并不断将拉取到的日志存储至前端机所在地域的本地存储系统(Apply logs),并向所述后端机回复已经拉取的日志的位置(Send Ack)的事务性工作,只由所述主服务器来完成,从而保证整个系统的数据一致性。
本发明一实施例中,所述读取装置用于供所述主服务器或备服务器从所述负载均衡服务器接收用户的读取日志请求;及供所述主服务器或备服务器根据所述读取日志请求,从所述前端机所在地域的本地存储系统获取对应的日志,若从所述本地存储系统获取到,则将获取到的日志回复至所述用户。负载均衡服务器(VIP Server)起到负载均衡的作用,client/user只需要访问一个IP或者域名,也就是VIPserver的IP地址或者域名地址,VIPServer可以设置挂载多个Frontend,配置上每个机器上的frontend的ip和port即可。用户client/user发来的请求会由VIP Server按照某种负载均衡的策略选择其中一台主服务器或备服务器并向其发送请求。
本发明一实施例中,所述读取装置,还用于若未从所述本地存储系统获取到,供所述主服务器或备服务器从所述后端机获取对应的日志后,将获取到的日志回复至所述用户。在此,非事务性的从所述后端机获取对应的日志,可所述负载均衡服务器(VIP Server)选择其中一台主服务器或备服务器完成,起到更好的负载均衡的效果。
根据本发明的另一面,还提供一种后端机,包括:
更新装置,用于从前端机接收用户的更新日志请求,根据所述用户的更新日志请求将对应的日志更新;
发送装置,向所述前端机发送日志,并从所述前端机接收当前已经拉取的日志的位置,根据所述位置删除所述已经拉取的日志。
在此,NuwaLog会接收所有前端机(Frontend)发出的请求,会存储Log。前端机(Frontend)可以启动两个线程,一个线程不断从NuwaLog上拉Log数据,另一个线程不断往OTS里面写数据,并回复NuwaLog已经pull下来的位置,NuwaLog这边会根据接收到的位置删除掉(trim)所有前端机(Frontend)回复的多个位置中已经pull下来的log的最小ID号的下一个ID号即NXID号之前所有的log,例如目前有三台前端机A、B和C,另后端NuwaLog中原来有10条日志,各条日志对应为1~10的ID号,各前端机拉取日志均从最小的ID号1开始拉取,若当前端机A拉取到了ID号为3的日志后,向NuwaLog回复NXID号位置为4,此时前端机B拉取到了ID号为4的日志后,向NuwaLog回复NXID号位置为5,此时前端机C拉取到了ID号为5的日志后,向NuwaLog回复NXID号位置为6,那么后续NuwaLog仅会将ID号为4之前的ID号为1~3的已经拉取的日志从其存储空间内删除,因为ID号为4~5的日志有部分前端机没有拉取完,需要待所有前端机拉取完后才能删除。本实施例通过前端机(Frontend)不断从所述后端机(NuwaLog)上拉取日志,并不断将拉取到的日志存储至前端机所在地域的本地存储系统(OTS),向所述后端机(NuwaLog)回复当前已经拉取的日志的位置,所述后端机(NuwaLog)根据所述位置删除其内部存储的所述已经拉取的日志,这样后端机(NuwaLog)不需要存储所有的日志,只需要存储还未拉取到本地存储系统(OTS),可以避免后端机(NuwaLog)的单机存储性能的下降和存储容量的限制,数据存储站点数量受一致性协议Quorum节点数的限制的问题,达到整个系统的数据一致性、正确性与健壮性。
本发明一实施例中,所述发送装置,还用于从所述前端机获取用户的读取日志请求,根据所述读取日志请求向所述前端机发送对应的日志。本实施例是对所述前端机从其所在地域的本地存储系统获取对应的日志的方案的优化补充,避免当用户需要读取的日志尚未拉取到对应地域的本地存储系统中的情况发生时,也能及时响应用户的日志读取请求,直接从后端机(NuwaLog)中读取即可。
本发明一实施例中,所述前端机采用主/备服务器架构。在此,采用master/slave架构,可避免Frontend单点故障,导致本地域(region)的本地存储系统(Bulk storagesystem)中的日志数据得不到更新。
本发明一实施例中,所述的后端机还包括注册装置,用于:从所述主服务器和备服务器接收注册请求;根据所述注册请求对所述主服务器和备服务器进行注册后,向所述主服务器和备服务器发送注册成功信息和向主服务器发送当前已经拉取的日志的位置。在此,每一个地域的Frontend包括所述主服务器和备服务器都需要注册到NuwaLog上,这样NuwaLog才能够找到对应的Frontend发送请求结果,具体来说,如图3所示,每个Frontend启动的时候,可先调用register注册到NuwaLog,由于主服务器负责事务性操作,注册成功之后主服务器可调用GetTrimPoint来获取后端NuwaLog当前已经删除的日志下一个位置ID号,例如当前删除到ID号为3号的日志,则获取到当前已经拉取的日志的位置为4,即主服务器下一次从位置4开始拉取日志。
本发明一实施例中,由一分布式锁服务系统(Nuwa Lock Service)对所述前端机中的主服务器和备服务器进行切换。在此,为了避免Frontend单点故障,导致本地域(region)的本地存储系统(Bulk storage system)中的日志数据得不到更新了,这里采取master/slave架构保证每次只有主服务器(master)进行事务性操作,当主服务器(master)故障之后能够通过Nuwa Lock Service重新进行选主,也就是选择master,Nuwa LockService可以提供分布式锁协议,能够适用于frontend进行master选主。
本发明一实施例中,所述括注册装置,还用于从下线的主服务器和/或备服务器接收注销请求,根据所述注销请求将下线的主服务器和/或备服务器进行注销后,向所述下线的主服务器和/或备服务器发送注销结果信息;
所述注册装置,还用于从新上线的主服务器和/或备服务器接收注册请求,根据所述注册请求将所述新上线的主服务器和/或备服务器进行注册后,向所述新上线的主服务器和/或备服务器发送注册成功信息和向新上线的主服务器发送当前已经拉取的日志的位置。在此,每一个地域的Frontend都需要注册到NuwaLog上,包括新上线的主服务器和备服务器,这样NuwaLog才能够找到对应的Frontend发送请求结果,具体来说,如图3所示,每个新上线的主服务器和备服务器启动的时候,可先调用register注册到NuwaLog,由于只有主服务器(master)进行事务性操作,所以注册成功之后主服务器(master)可调用GetTrimPoint来获取后端NuwaLog当前已经删除的日志下一个位置ID号,例如当前删除到ID号为3号的日志,则获取到当前已经拉取的日志的位置为4,即主服务器(master)下一次从位置4开始pull日志。另外,当下线掉Frontend包括主服务器和备服务器的时候,需要调用unregister来从NuwaLog中下线掉Frontend。本发明一实施例中,所述更新装置,还用于将对应的日志更新的同时,根据当前存储的日志,生成对应快照并存储;
所述发送装置,还用于根据所述位置删除所述已经拉取的日志的同时,删除对应的快照。在此,Snapshot为快照,也就是NuwaLog系统中某一时刻内存中全量数据的快照。NuwaLog会接收所有frontend的请求,会存储log和snapshot,这里存储snapshot是为了解决NuwaLog发生故障切换(failover)的情况,而且log数据还没有传到本地的OTS中,NuwaLog重新启动能够从snapshot中恢复还没有传输到OTS中的数据,NuwaLog根据所述位置删除所述已经拉取的日志的同时,每隔一段时间删除对应磁盘上的snapshot文件,避免存储过期无用的snapshot。
本发明一实施例中,前端frontend与后端NuwaLog之间可以采用avro序列化方式,利用Netty作为RPC通信。这里选择使用avro协议的原因是该序列化协议比较简单并高效。Netty作为业界通用的RPC协议,在JAVA领域是一个成熟度并高效的远程网络通信协议。
根据本发明的另一面,还提供一种基于计算的设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
接收用户的更新日志请求,通过向所述后端机发送所述用户的更新日志请求,将对应的日志更新入后端机;
从所述后端机上拉取日志,并将拉取到的日志存储至前端机所在地域的本地存储系统,并向所述后端机回复当前已经拉取的日志的位置,以供所述后端机根据所述位置删除其内部存储的所述已经拉取的日志。
根据本发明的另一面,还提供一种基于计算的设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
从前端机接收用户的更新日志请求,根据所述用户的更新日志请求将对应的日志更新;
向所述前端机发送日志,并从所述前端机接收当前已经拉取的日志的位置,根据所述位置删除所述已经拉取的日志。
本发明可应用于现在电商类的很多业务系统,比如网络交易平台的用户信息等,此时的日志的内容可为用户信息,都需要满足用户随处可以快速访问到自己的淘宝信息,这种需求就需要一个分布式的跨地域的中心化的数据一致性,满足每个区域的数据访问;本发明还可应用于金融业务中,也同样有这样的需求,此时的日志的内容可为金融数据,用户的金融数据需要在多个region进行备份,满足金融数据的高可靠。
综上所述,本发明通过前端机(Frontend)不断从所述后端机(NuwaLog)上拉取(pull)元数据,并不断将拉取到的元数据存储(Apply)至前端机所在地域的本地存储系统(OTS),并向所述后端机(NuwaLog)回复(Send Ack)当前已经拉取的元数据的位置,所述后端机(NuwaLog)根据所述位置删除其内部存储的所述已经拉取(pull)的元数据,后端机(NuwaLog)不需要存储所有的元数据,只需要存储还未拉取到本地存储系统(OTS),可以避免后端机(NuwaLog)的单机存储性能的下降和存储容量的限制,数据存储站点数量受一致性协议Quorum节点数的限制的问题,达到整个系统的数据一致性、正确性与健壮性,另外,前端机(Frontend)和本地存储系统(OTS)可以实现按需要进行扩展。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
需要注意的是,本发明可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本发明的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本发明的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本发明的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
另外,本发明的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本发明的方法和/或技术方案。而调用本发明的方法的程序指令,可能被存储在固定的或可移动的记录介质中,和/或通过广播或其他信号承载媒体中的数据流而被传输,和/或被存储在根据所述程序指令运行的计算机设备的工作存储器中。在此,根据本发明的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本发明的多个实施例的方法和/或技术方案。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。

Claims (36)

1.一种前端机上的元数据交互方法,其中,该方法包括:
接收用户的更新元数据请求,通过向后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复当前已经拉取的元数据的位置。
2.根据权利要求1所述的方法,其中,将拉取到的元数据存储至前端机所在地域的本地存储系统之后还包括:
接收用户的读取元数据请求;
根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,
若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户。
3.根据权利要求2所述的方法,其中,从所述前端机所在地域的本地存储系统获取对应的元数据之后,还包括:
若未从所述本地存储系统获取到,通过向所述后端机发送所述读取元数据请求,从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户。
4.根据权利要求3所述的方法,其中,所述前端机采用主/备服务器架构。
5.根据权利要求4所述的方法,其中,接收用户的更新元数据请求或接收用户的读取元数据请求之前,包括:
所述主服务器和备服务器向所述后端机发送注册请求;
所述主服务器和备服务器从所述后端机接收注册成功信息后,所述主服务器从所述后端机获取当前已经拉取的元数据的位置。
6.根据权利要求4所述的方法,其中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换。
7.根据权利要求6所述的方法,其中,分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换的同时,还包括:
下线的主服务器和备服务器,向所述分布式锁服务系统发送注销请求,从所述后端机接收注销结果信息;
新上线的主服务器和备服务器向所述后端机发送注册请求,并从所述后端机接收注册成功信息后,新上线的主服务器从所述后端机获取当前已经拉取的元数据的位置。
8.根据权利要求4所述的方法,其中,接收用户的更新元数据请求,通过向所述后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机,包括:
所述主服务器或备服务器从一负载均衡服务器获取用户的更新元数据请求,所述主服务器或备服务器通过向所述后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复已经拉取的元数据的位置,包括:
所述主服务器从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复已经拉取的元数据的位置。
9.根据权利要求8所述的方法,其中,接收用户的读取元数据请求;根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户,包括:
所述主服务器或备服务器从所述负载均衡服务器接收用户的读取元数据请求;
所述主服务器或备服务器根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户。
10.根据权利要求9所述的方法,其中,若未从所述本地存储系统获取到,从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户包括:
若未从所述本地存储系统获取到,所述主服务器或备服务器从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户。
11.一种后端机上的元数据交互方法,其中,包括:
从前端机接收用户的更新元数据请求,根据所述用户的更新元数据请求将对应的元数据更新;
向所述前端机发送元数据,并从所述前端机接收当前已经拉取的元数据的位置,根据所述位置删除所述已经拉取的元数据。
12.根据权利要求11所述的方法,其中,向所述前端机发送元数据之后,还包括:
从所述前端机获取用户的读取元数据请求,根据所述读取元数据请求向所述前端机发送对应的元数据。
13.根据权利要求12所述的方法,其中,所述前端机采用主/备服务器架构。
14.根据权利要求13所述的方法,其中,从前端机接收用户的更新元数据请求或从所述前端机获取用户的读取元数据请求之前,还包括:
从所述主服务器和备服务器接收注册请求;
根据所述注册请求对所述主服务器和备服务器进行注册后,向所述主服务器和备服务器发送注册成功信息和向主服务器发送当前已经拉取的元数据的位置。
15.根据权利要求13所述的方法,其中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换。
16.根据权利要求15所述的方法,其中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换的同时,还包括:
从下线的主服务器和/或备服务器接收注销请求,根据所述注销请求将下线的主服务器和/或备服务器进行注销后,向所述下线的主服务器和/或备服务器发送注销结果信息;
从新上线的主服务器和/或备服务器接收注册请求,根据所述注册请求将所述新上线的主服务器和/或备服务器进行注册后,向所述新上线的主服务器和/或备服务器发送注册成功信息和向新上线的主服务器发送当前已经拉取的元数据的位置。
17.根据权利要求11所述的方法,其中,将对应的元数据更新的同时,还包括:
当所述元数据为日志时,根据当前存储的元数据,生成对应快照并存储;
根据所述位置删除所述已经拉取的元数据的同时还包括:
删除对应的快照。
18.一种前端机,其中,该前端机包括:
发起更新装置,用于接收用户的更新元数据请求,通过向后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
拉取装置,从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复当前已经拉取的元数据的位置。
19.根据权利要求18所述的前端机,其中,还包括读取装置,用于接收用户的读取元数据请求;根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户。
20.根据权利要求19所述的前端机,其中,所述读取装置,还用于若未从所述本地存储系统获取到,通过向所述后端机发送所述读取元数据请求,从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户。
21.根据权利要求20所述的前端机,其中,所述前端机采用主/备服务器架构。
22.根据权利要求21所述的前端机,其中,还包括发起注册装置,用于供所述主服务器和备服务器向所述后端机发送注册请求;所述主服务器和备服务器从所述后端机接收注册成功信息后,所述主服务器从所述后端机获取当前已经拉取的元数据的位置。
23.根据权利要求21所述的前端机,其中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换。
24.根据权利要求23所述的前端机,其中,还包括发起注销装置,用于供下线的主服务器和备服务器,向所述分布式锁服务系统发送注销请求,从所述后端机接收注销结果信息;
所述发起注册装置,还用于新上线的主服务器和备服务器向所述后端机发送注册请求,并从所述后端机接收注册成功信息后,新上线的主服务器从所述后端机获取当前已经拉取的元数据的位置。
25.根据权利要求21所述的前端机,其中,所述发起更新装置,用于供所述主服务器或备服务器从一负载均衡服务器获取用户的更新元数据请求,所述主服务器或备服务器通过向所述后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
所述拉取装置,用于供所述主服务器从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复已经拉取的元数据的位置。
26.根据权利要求25所述的前端机,其中,所述读取装置用于供所述主服务器或备服务器从所述负载均衡服务器接收用户的读取元数据请求;及供所述主服务器或备服务器根据所述读取元数据请求,从所述前端机所在地域的本地存储系统获取对应的元数据,若从所述本地存储系统获取到,则将获取到的元数据回复至所述用户。
27.根据权利要求26所述的前端机,其中,所述读取装置,还用于若未从所述本地存储系统获取到,供所述主服务器或备服务器从所述后端机获取对应的元数据后,将获取到的元数据回复至所述用户。
28.一种后端机,其中,包括:
更新装置,用于从前端机接收用户的更新元数据请求,根据所述用户的更新元数据请求将对应的元数据更新;
发送装置,向所述前端机发送元数据,并从所述前端机接收当前已经拉取的元数据的位置,根据所述位置删除所述已经拉取的元数据。
29.根据权利要求28所述的后端机,其中,所述发送装置,还用于从所述前端机获取用户的读取元数据请求,根据所述读取元数据请求向所述前端机发送对应的元数据。
30.根据权利要求29所述的后端机,其中,所述前端机采用主/备服务器架构。
31.根据权利要求30所述的后端机,其中,还包括注册装置,用于:从所述主服务器和备服务器接收注册请求;根据所述注册请求对所述主服务器和备服务器进行注册后,向所述主服务器和备服务器发送注册成功信息和向主服务器发送当前已经拉取的元数据的位置。
32.根据权利要求30所述的后端机,其中,由一分布式锁服务系统对所述前端机中的主服务器和备服务器进行切换。
33.根据权利要求32所述的后端机,其中,所述注册装置,还用于从下线的主服务器和/或备服务器接收注销请求,根据所述注销请求将下线的主服务器和/或备服务器进行注销后,向所述下线的主服务器和/或备服务器发送注销结果信息;
所述注册装置,还用于从新上线的主服务器和/或备服务器接收注册请求,根据所述注册请求将所述新上线的主服务器和/或备服务器进行注册后,向所述新上线的主服务器和/或备服务器发送注册成功信息和向新上线的主服务器发送当前已经拉取的元数据的位置。
34.根据权利要求28所述的后端机,其中,所述更新装置,还用于将对应的元数据更新的同时,当所述元数据为日志时,根据当前存储的元数据,生成对应快照并存储;
所述发送装置,还用于根据所述位置删除所述已经拉取的元数据的同时,删除对应的快照。
35.一种基于计算的设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
接收用户的更新元数据请求,通过向后端机发送所述用户的更新元数据请求,将对应的元数据更新入后端机;
从所述后端机上拉取元数据,并将拉取到的元数据存储至前端机所在地域的本地存储系统,并向所述后端机回复当前已经拉取的元数据的位置,以供所述后端机根据所述位置删除其内部存储的所述已经拉取的元数据。
36.一种基于计算的设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
从前端机接收用户的更新元数据请求,根据所述用户的更新元数据请求将对应的元数据更新;
向所述前端机发送元数据,并从所述前端机接收当前已经拉取的元数据的位置,根据所述位置删除所述已经拉取的元数据。
CN201710053029.XA 2017-01-24 2017-01-24 元数据交互方法及系统 Active CN108347454B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710053029.XA CN108347454B (zh) 2017-01-24 2017-01-24 元数据交互方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710053029.XA CN108347454B (zh) 2017-01-24 2017-01-24 元数据交互方法及系统

Publications (2)

Publication Number Publication Date
CN108347454A true CN108347454A (zh) 2018-07-31
CN108347454B CN108347454B (zh) 2021-03-26

Family

ID=62961850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710053029.XA Active CN108347454B (zh) 2017-01-24 2017-01-24 元数据交互方法及系统

Country Status (1)

Country Link
CN (1) CN108347454B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110896406A (zh) * 2018-09-13 2020-03-20 华为技术有限公司 数据存储方法、装置及服务器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101079902A (zh) * 2007-06-29 2007-11-28 清华大学 海量数据分级存储方法
CN103167026A (zh) * 2013-02-06 2013-06-19 数码辰星科技发展(北京)有限公司 一种云存储环境数据处理方法、系统及设备
CN104166600A (zh) * 2014-08-01 2014-11-26 腾讯科技(深圳)有限公司 数据备份与恢复方法及装置
US20150207880A1 (en) * 2014-01-20 2015-07-23 Electronics And Telecommunications Research Institute Apparatus and method for distribution processing of data, and storage server
CN105187556A (zh) * 2015-09-29 2015-12-23 北京奇艺世纪科技有限公司 一种数据回源的方法、装置及边缘服务器
CN105635278A (zh) * 2015-12-30 2016-06-01 深圳市瑞驰信息技术有限公司 一种管理存储系统的元数据的方法以及元数据服务器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101079902A (zh) * 2007-06-29 2007-11-28 清华大学 海量数据分级存储方法
CN103167026A (zh) * 2013-02-06 2013-06-19 数码辰星科技发展(北京)有限公司 一种云存储环境数据处理方法、系统及设备
US20150207880A1 (en) * 2014-01-20 2015-07-23 Electronics And Telecommunications Research Institute Apparatus and method for distribution processing of data, and storage server
CN104166600A (zh) * 2014-08-01 2014-11-26 腾讯科技(深圳)有限公司 数据备份与恢复方法及装置
CN105187556A (zh) * 2015-09-29 2015-12-23 北京奇艺世纪科技有限公司 一种数据回源的方法、装置及边缘服务器
CN105635278A (zh) * 2015-12-30 2016-06-01 深圳市瑞驰信息技术有限公司 一种管理存储系统的元数据的方法以及元数据服务器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110896406A (zh) * 2018-09-13 2020-03-20 华为技术有限公司 数据存储方法、装置及服务器
US11403227B2 (en) 2018-09-13 2022-08-02 Huawei Technologies Co., Ltd. Data storage method and apparatus, and server

Also Published As

Publication number Publication date
CN108347454B (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
CN106357452B (zh) 一种单点异构数据存储的高可用框架系统及其实现方法
US8495017B2 (en) Method and system to maintain strong consistency of distributed replicated contents in a client/server system
US10402115B2 (en) State machine abstraction for log-based consensus protocols
KR101863398B1 (ko) 다중-서버 예약 시스템 상의 동기화 메커니즘 시스템 및 방법
US8589732B2 (en) Consistent messaging with replication
CN109547512B (zh) 一种基于NoSQL的分布式Session管理的方法及装置
CN108347455B (zh) 元数据交互方法及系统
CN112084258A (zh) 一种数据同步方法和装置
JP6225262B2 (ja) 分散データグリッドにおいてデータを同期させるためにパーティションレベルジャーナリングをサポートするためのシステムおよび方法
KR20160147909A (ko) 트랜잭셔널 환경에서 리소스 관리자(rm) 인스턴스 인지에 기초하여 공통 트랜잭션 식별자(xid) 최적화 및 트랜잭션 친화성을 지원하기 위한 시스템 및 방법
CN108228581B (zh) Zookeeper兼容通信方法、服务器及系统
US20200159560A1 (en) Propagating ordered object changes
KR20140047230A (ko) 분산 시스템에서 분산 트랜잭션의 최적화를 위한 방법 및 트랜잭션을 최적화한 분산 시스템
CN113885797B (zh) 一种数据存储方法、装置、设备及存储介质
CN113411363A (zh) 一种镜像文件的上传方法、相关设备及计算机存储介质
US20160301625A1 (en) Intelligent High-Volume Cloud Application Programming Interface Request Caching
CN112632093A (zh) 工单处理方法、设备、系统、存储介质及程序产品
CN108347454A (zh) 元数据交互方法及系统
CN110149365B (zh) 服务适配方法、设备、系统以及计算机可读介质
CN108418857B (zh) 一种Zookeeper集群系统及其连接方法和装置
Pankowski Consistency and availability of Data in replicated NoSQL databases
US11372849B2 (en) Transaction confirmation methods and apparatuses in blockchain network
CN110300140A (zh) 用于云分发网络中内容更新的方法、刷新客户端及网络节点
CN114205354A (zh) 事件管理系统、事件管理方法、服务器及存储介质
US20080034053A1 (en) Mail Server Clustering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant