CN111225003B - 一种nfs节点配置方法和装置 - Google Patents

一种nfs节点配置方法和装置 Download PDF

Info

Publication number
CN111225003B
CN111225003B CN201811406629.0A CN201811406629A CN111225003B CN 111225003 B CN111225003 B CN 111225003B CN 201811406629 A CN201811406629 A CN 201811406629A CN 111225003 B CN111225003 B CN 111225003B
Authority
CN
China
Prior art keywords
nfs
data
node
client
vip address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811406629.0A
Other languages
English (en)
Other versions
CN111225003A (zh
Inventor
曹言虎
史琪
何军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Technology Holding Co Ltd
Original Assignee
Jingdong Technology Holding Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingdong Technology Holding Co Ltd filed Critical Jingdong Technology Holding Co Ltd
Priority to CN201811406629.0A priority Critical patent/CN111225003B/zh
Publication of CN111225003A publication Critical patent/CN111225003A/zh
Application granted granted Critical
Publication of CN111225003B publication Critical patent/CN111225003B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • H04L61/50Address allocation
    • H04L61/5007Internet protocol [IP] addresses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种NFS节点配置方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:接收客户端传输的访问请求,确定所述访问请求中的挂载目录;根据挂载目录与VIP地址之间的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址挂载所述客户端;其中,所述VIP地址由负载均衡配置;确定与所述VIP地址相应的NFS节点。该实施方式将访问同目录文件的客户端挂载至同一VIP地址下的NFS节点中,便于后续数据的读、写操作,且客户端之间的冲突较低,具有明显提升系统处理性能的作用。

Description

一种NFS节点配置方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种NFS节点配置方法和装置。
背景技术
文件共享是企业、个人业务都经常使用的,而随着业务的发展、访问量的增加,单节点的NFS(Network File System,网络文件系统)已限制了系统在网络带宽、存储容量的发展。
为解决这些问题,现有技术常用分布式存储方法,在存储上层增加NFS节点,通过负载均衡LVS(Linux Virtual Server,Linux虚拟服务器)的方式将客户端划分到不同的NFS服务节点上,例如轮询、哈希映射、动态调度(如最少链接数)等,具体参见图1、图2(实线表示写数据,虚线表示读数据)所示。
图1中,整个技术架构由分布式文件存储、NFS服务集群、负载均衡集群组成。图2中,客户端1、2分别挂载到NFS节点1、2上,当NFS节点1将客户端1传输的文件写入分布式文件存储后,NFS节点2需要从分布式文件存储中重新将文件内容读出来,再传输至客户端2中。
在实现本发明的过程中,发明人发现现有技术至少存在如下问题:
1)对于访问同目录的不同NFS客户端,依赖于不同的NFS节点进行数据读/写,这就导致现有方案需要配置多个NFS节点;
2)每个客户端只能读/写自己连接到的NFS节点上的数据。这就导致读数据的NFS节点不知道数据写入,只有在数据写入分布式存储完毕之后才能对该数据进行读取,从而产生较高延时。
发明内容
有鉴于此,本发明实施例提供一种NFS节点配置方法和装置,至少能够解决现有技术中对于读/写同目录的客户端,依赖于不同NFS节点进行处理,导致数据读取只能在数据写入完毕之后,产生较高延时的问题。
为实现上述目的,根据本发明实施例的一个方面,提供了一种NFS节点配置方法,包括:接收客户端传输的访问请求,确定所述访问请求中的挂载目录;根据挂载目录与VIP地址之间的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址挂载所述客户端;其中,所述VIP地址由负载均衡配置;确定与所述VIP地址相应的NFS节点。
可选的,所述根据挂载目录与VIP地址的映射关系,确定分配至所述客户端的VIP地址,包括:
若在预定挂载目录记录中查询存在所述挂载目录,则根据挂载目录与业务类型的映射关系,确定所述客户端所属业务类型;根据业务类型与VIP地址的映射关系,确定分配至所述客户端的VIP地址;或
若在预定挂载目录记录中查询不存在所述挂载目录,则拒绝所述客户端的访问。
可选的,所述NFS节点包括NFS主节点以及NFS备节点;
所述确定与所述VIP地址相应的NFS节点包括:当检测到所述NFS主节点为异常状态时,根据每个NFS备节点的当前服务状态以及预定选择方式,确定代替所述NFS主节点工作的NFS备节点。
可选的,所述访问请求还包括数据处理请求;
在确定与所述VIP地址相应的NFS节点之后,还包括:传输所述数据处理请求至所确定的NFS节点,并将所述NFS节点所反馈的处理结果传输至所述客户端。
可选的,所述数据处理请求为数据写入请求,所述数据写入请求包括待写入的第一数据;
所述方法包括:
所述NFS节点写入所述第一数据至预定数据缓存完毕后,存储所述第一数据至预定分布式存储中;或
所述NFS节点在写入所述第一数据至所述预定数据缓存的同时,存储所写入的所述第一数据至所述预定分布式存储中。
可选的,所述数据处理请求为数据读取请求,所述数据读取请求包括元数据;其中,所述元数据为待读取数据所处的目录,
所述方法包括:
若所述NFS节点在预定数据缓存中查询存在所述元数据,提取所述预定缓存中与所述元数据相应的第二数据并输出;其中,所述第二数据为已写入完毕或正在写入的数据;或
若所述NFS节点在所述预定数据缓存中查询不存在所述元数据、且在分布式存储中查询存在所述元数据,则提取所述分布式存储中与所述元数据相应的所述第二数据并输出。
为实现上述目的,根据本发明实施例的另一方面,提供了一种NFS节点配置装置,包括:
接收模块,用于接收客户端传输的访问请求,确定所述访问请求中的挂载目录;
挂载模块,用于根据挂载目录与VIP地址之间的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址挂载所述客户端;其中,所述VIP地址由负载均衡配置;
确定模块,用于确定与所述VIP地址相应的NFS节点。
可选的,所述挂载模块,用于:
若在预定挂载目录记录中查询存在所述挂载目录,则根据挂载目录与业务类型的映射关系,确定所述客户端所属业务类型;根据业务类型与VIP地址的映射关系,确定分配至所述客户端的VIP地址;或
若在预定挂载目录记录中查询不存在所述挂载目录,则拒绝所述客户端的访问。
可选的,所述NFS节点包括NFS主节点以及NFS备节点;
确定模块,用于:当检测到所述NFS主节点为异常状态时,根据每个NFS备节点的当前服务状态以及预定选择方式,确定代替所述NFS主节点工作的NFS备节点。
可选的,所述访问请求还包括数据处理请求;所述装置还包括处理模块,用于:传输所述数据处理请求至所确定的NFS节点,并将所述NFS节点所反馈的处理结果传输至所述客户端。
可选的,所述数据处理请求为数据写入请求,所述数据写入请求包括待写入的第一数据;
所述装置还包括数据写入模块,用于:
所述NFS节点写入所述第一数据至预定数据缓存完毕后,存储所述第一数据至预定分布式存储中;或
所述NFS节点在写入所述第一数据至所述预定数据缓存的同时,存储所写入的所述第一数据至所述预定分布式存储中。
可选的,所述数据处理请求为数据读取请求,所述数据读取请求包括元数据;其中,所述元数据为待读取数据所处的目录,
所述装置还包括数据读取模块,用于:
若所述NFS节点在预定数据缓存中查询存在所述元数据,提取所述预定缓存中与所述元数据相应的第二数据并输出;其中,所述第二数据为已写入完毕或正在写入的数据;或
若所述NFS节点在所述预定数据缓存中查询不存在所述元数据、且在分布式存储中查询存在所述元数据,则提取所述分布式存储中与所述元数据相应的所述第二数据并输出。
为实现上述目的,根据本发明实施例的再一方面,提供了一种NFS节点配置电子设备。
本发明实施例的电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述任一所述的NFS节点配置方法。
为实现上述目的,根据本发明实施例的再一方面,提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任一所述的NFS节点配置方法。
根据本发明所述提供的方案,上述发明中的一个实施例具有如下优点或有益效果:将读写同目录文件的客户端挂载到同一NFS节点上,减少从后端分布式文件系统上多次读取数据的情况。基于负载均衡LVS的Sorry-Server配置HA的方式,解决实时数据读写延时的问题,具有实现文件读写高可用、低延时的效果。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是现有技术的整体技术架构图;
图2是现有技术的不同NFS节点处理访问同目录的客户端的流程示意图;
图3是根据本发明实施例的一种NFS节点配置方法的流程示意图;
图4是本发明实施例提供的整体技术架构示意图;
图5是根据本发明实施例的一种可选的NFS节点配置方法的流程示意图;
图6是本发明实施例提供的主备NFS节点处理访问同目录的客户端的流程示意图;
图7是根据本发明实施例的另一种可选的NFS节点配置方法的流程示意图;
图8是根据本发明实施例的一种NFS节点配置装置的主要模块示意图;
图9是本发明实施例可以应用于其中的示例性系统架构图;
图10是适于用来实现本发明实施例的移动设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,由于后端使用的分布式系统目前只支持LINUX操作系统,因此,本发明主要应用于LVS场景。且LVS对硬件支持好,可以使用高性能网络进行定制,如DPDK(Data Plane Development Kit,数据平面开发套件)。
对于本发明所涉及的词语,作解释如下:
LVS:一个虚拟的服务器集群系统,可以在unix/linux平台下实现负载均衡集群功能。
LVS Sorry-Server:实现主备功能,主节点宕机后,备节点提供服务。
挂载:将一个设备(通常是存储设备)挂接到一个已存在的目录上,然后通过访问这个目录(可以不为空)来访问存储设备。
负载均衡集群:把单台计算机无法承受的大规模并发访问或数据流量,分担到多台节点设备上分别处理。所有计算机节点都应该提供相同的服务,任意一个或多个设备节点设备宕机,不会影响到业务。
NFS服务集群:由一组NFS节点组成,后端使用分布式文件存储,NFS节点之间的配置导出目录相同,且NFS节点相互独立,无论访问哪一个NFS节点都能读写相同的文件内容。
NFS:主要功能是通过网络(一般是局域网)让不同的主机系统之间可以共享文件或目录。NFS客户端可以通过挂载(mount)的方式将NFS服务端共享的数据目录挂载到NFS客户端本地系统中(就是某一个挂载点下)。
VIP地址:与真实IP地址不同,是由代理服务器根据Internet内部客户端的多少,给定虚拟IP地址的一个范围,并按某种规定分配给每个客户端一个虚拟IP地址,这样便可实现客户端与Internet的间接相连。VIP主要是用来进行不同主机之间的切换,主要用在服务器的主从切换。
参见图3,示出的是本发明实施例提供的一种NFS节点配置方法的主要流程图,包括如下步骤:
S301:接收客户端传输的访问请求,确定所述访问请求中的挂载目录;
S302:根据挂载目录与VIP地址之间的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址挂载所述客户端;其中,所述VIP地址由负载均衡配置;
S303:确定与所述VIP地址相应的NFS节点。
参见图4所示,为本发明的整体技术架构,包括负载均衡LVS、NFS节点和分布式文件系统。本发明将访问同目录的客户端挂载到同一个VIP地址下的NFS节点上,例如访问目录1的客户端A、B连接到NFS节点1,访问目录2的客户端C连接到NFS节点2上。
上述实施方式中,对于步骤S301,所涉及的客户端(前端节点),一般为应用服务器,例如web、APP(APPlication,应用程序)、NFS客户端等,本发明不做限制。
客户端所发送的访问请求,主要包括客户端IP(Internet Protocol Address,网络协议地址)、数据处理(读/写等)和挂载选项(例如mount-t nfs vip:/mnt/share/mnt/local,包含挂载目录/mnt/share)。访问请求还可以包括其他信息,例如NFS版本(v3或v4),为NFS使用的RPC协议中的内容,是在NFS客户端挂载过程中自动协调分配的。
对于步骤S302,对于VIP地址,为虚拟IP地址,用于实现客户端与NFS服务端之间的长连接,提供挂载方式给客户端。
为便于访问同目录的客户端为同一个NFS节点,或者是与相应VIP地址相关联的任一个NFS节点,需确定负载均衡LVS分配至该客户端的VIP地址,建立VIP地址与访问目录的对应关系,可以一对一、也可以一对多,主要选择一对一方式,实现VIP地址一对一处理挂载目录的目的。
这里的VIP地址,可以由管理网络方面的工作人员,为管理方便,提前分配的一些或一段未被分配使用的IP地址作为VIP地址使用,其配置方式,本发明在此不做限制。
进一步的,挂载是确认客户端是否有访问NFS服务端的权限。对于客户端所传输的访问请求中的挂载目录(例如,/mnt/app、/mnt/local),NFS服务端会判断其是否是NFS挂载目录,若结果为是,则可进行后续操作;否则,则拒绝其访问。
这里的挂载,可视为是目录请求。客户端在挂载时,会提供挂载目录(如mount-tnfs VIP:/sharedir/mnt/localdir),记录所读写目录的起始。例如,根据元数据(inode),记录文件的所有者、权限、大小、实际存储位置等信息,元数据可视为目录,提供后续数据查找依据。
对于具有访问权限的客户端,NFS服务端会根据其挂载目录确定其具体访问哪个业务/业务类型,例如仓储物流、大数据管理等,具体地:
步骤一:根据挂载目录与业务类型的映射关系,确定客户端所属业务类型;
步骤二:根据业务类型与VIP地址的映射关系,确定分配至客户端的VIP地址。
NFS服务端(管理平台)管理业务类型和对应的目录,例如业务app对应目录/mnt/app(这可以由人为确定、或者系统自动分配),并提供挂载方式(例如vip:/mnt/app)给该客户端进行挂载。
进一步的,还可以建立业务类型-业务目录、业务目录与VIP地址的映射关系,可能一个业务目录下包含一个或多个业务类型,便于区块化管理。
对于步骤S303,客户端挂载后会与NFS服务端之间建立长连接,后续的数据读写都是通过这个长连接进行,且通过这个长连接可以确定相应的NFS服务节点。
客户端挂载时有指定挂载的目录,读写都是在挂载的目录下进行的。NFS节点挂载有多个客户端,可视为是对远程(NFS服务)本地文件系统操作,NFS在本地文件系统之上封装了一层,降低多个客户端操作同目录文件时的冲突。
对于数据处理请求,依赖于NFS节点进行处理,因此,在挂载客户端后,还需要确定哪个NFS节点处理该客户端的数据处理请求。
本发明建立有VIP地址与NFS节点的映射关系,因此即存在挂载目录-VIP地址-NFS节点,或者挂载目录-业务类型-VIP地址-NFS节点的映射关系;
进一步的,还可以存在VIP地址与NFS节点IP地址的映射关系,不同IP地址对应不同的NFS节点,且同一局域网内的NFS客户端可以处于同一IP段;例如:
VIP-1(192.168.1.100)、NFS1:192.168.1.11、NFS2:192.168.1.12。
上述实施例所提供的方法,在大数据分析、智能计算等对实时性、低延时要求高的业务场景中,可以将访问同一目录的客户端,挂载至与同一VIP地址相应的NFS节点中,便于后续数据的读、写操作,且客户端之间的冲突较低,具有明显提升系统处理性能的作用。
参见图5,示出的是本发明实施例提供的一种可选的NFS节点配置方法的主要流程图,包括如下步骤:
S501:接收客户端传输的访问请求,确定所述访问请求中的挂载目录以及数据处理请求;
S502:根据挂载目录与VIP地址之间的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址对所述客户端进行挂载;其中,所述VIP地址由负载均衡配置;
S503:确定与所述VIP地址对应的NFS节点;其中,NFS节点包括NFS主节点以及NFS备节点;
S504:当检测到NFS主节点为正常状态时,传输数据处理请求至NFS主节点,并将NFS主节点所反馈的处理结果传输至客户端;
S504’:当检测到NFS主节点为异常状态时,根据每个NFS备节点的当前服务状态以及预定选择方式,确定处理数据处理请求的NFS备节点,传输数据处理请求至所确定的NFS备节点,并将NFS备节点所反馈的处理结果传输至客户端。
上述实施方式中,对于步骤S501、S502可分别参见图3所示步骤S301以及S302的描述,在此不再赘述。
上述实施方式中,对于步骤S503,与VIP地址相应的NFS节点数量可以是一个、两个甚至是多个,具体依据工作人员设定:
(1)当只有一个NFS节点时,由该NFS节点处理相应所有客户端的数据处理请求。但这种情况很少,因为这个NFS节点的服务压力很大,当其故障时,没有备选节点代替其工作;
(2)当有两个NFS节点时,两者可以形成主备1+1模式。例如,
VIP-1(192.168.1.100)、NFS1:192.168.1.11主、NFS2:192.168.1.12备;
VIP-2(192.168.2.100)、NFS3:192.168.2.11主、NFS4:192.168.2.12备;
(3)有多个NFS主节点以及备节点,例如N+K模式。例如:
VIP-3(192.168.3.100)、NFS5:192.168.3.11主、NFS6:192.168.3.12备、NFS7:192.168.3.13备;
VIP-4(192.168.4.100)、NFS8:192.168.4.11主、NFS9:192.168.4.12主、NFS10:192.168.4.13备;
VIP-5(192.168.5.100)、NFS11:192.168.5.11主、NFS12:192.168.5.12主、NFS13:192.168.5.13备、NFS14:192.168.5.14备。
在实际应用中可以配置多个NFS服务主备组,横向扩展,对已有业务使用影响小。
对于步骤S504以及S504’,当NFS主节点正常时,主要依赖于其处理客户端的数据处理请求。例如,上述方式(2.)中客户端A、B挂载VIP-1连接至NFS节点1;客户端C、D挂载VIP-2连接到NFS节点3。
但NFS主节点也可能存在异常情况,例如硬件故障、软件故障、系统崩溃等,导致LVS到NFS节点的网络传输异常。针对这种情况,通常会将NFS备节点提取以代替其工作,完后后续工作或者重新工作。
对于步骤S503中的方式(2),当NFS主节点异常时,只有预先设定的唯一一个NFS备节点可以代替其工作。对于方式(3),NFS主节点和备节点的数量可能不完全一样,两者之间的备用关系可以多样,例如:
1)存在预先定义的映射关系,例如VIP-5中存有【NFS11,NFS13】【NFS12,NFS14】,当NFS11节点异常时由NFS13顶替、NFS12节点异常时由NFS14顶替;
对于VIP-3中,当NFS5异常时,优先选择NFS6代替工作,只有在NFS6也异常时,才由NFS7顶替其工作;
对于VIP-4,无论哪个主节点异常,都由NFS10代替其工作,但当两个主节点都异常时,可能需要其中一个等待。
2)不存在映射关系,即当其中一个NFS主节点异常时,没有固定的NFS备节点顶替其工作。例如:
对于VIP-3中,若NFS5异常,可以任选NFS6或者NFS7中任一个进行工作;对于VIP-5中,若NFS11或NFS13,也是任选NFS12或NFS14中一个代替工作;
3)不存在映射关系,也不使用随机性,而是基于全部或者部分NFS备节点的当前服务状态进行规则性的选择,方式也可以有多种:
①NFS备节点处理能力有限:统计每个NFS备节点待处理的数据处理请求的数量,将待处理数量最少的NFS备节点确定为处理所述数据处理请求的NFS备节点,以此实现节点工作量的均衡;
②对数据处理请求进行编号,根据请求编号与NFS备节点之间的映射关系,将与所述数据处理请求编号相应的NFS节点确定为处理所述数据处理请求的NFS备节点,以此实现节点按序以及等量工作。例如,NFS6处理编号奇数的请求,NFS7处理编号偶数的请求。
具体参见图6,示出了方式(2)中两个NFS节点主备模式的工作实例:
①当NFS主节点1正常时,将客户端1、2挂载连接到该NFS主节点1进行文件读写,即图中实线部分;
②但当NFS主节/1异常时,由NFS备节点2负担处理所有的请求,代替其进行工作,此时需将该NFS主节点1的数据过载连接迁移到该备节点进行文件读写,具体参见图中虚线部分。
另外,在主备NFS节点之间也存在数据的“迁移”,具体参见两者之间的“双箭头虚线”部分。
需要说明的是,NFS备节点代替NFS主节点进行工作,不限于是NFS主节点异常的情况,也可以是NFS主节点需要更新配置或升级的场景。在NFS主节点恢复正常、或是NFS主节点配置更新完毕后,客户端与NFS备节点之间的连接,会自动切换回相应NFS主节点。
另外对于NFS主节点,系统通常会定时对其进行异常检测。检测方式可以有多种,例如:
①通过负载均衡LVS定时发送心跳包给NFS主节点,若出现发送失败情况,可以确定该NFS主节点异常;
②NFS节点都安装有Keepalived,NFS节点1发送特定消息给NFS节点2,若NFS节点2接收不到,则认为服务发生故障;
③在NFS服务端中配置NFS节点性能监控参数,结合环境、IP等实际配置信息对其进行检测。
需要说明的是,该VIP地址可以建立客户端与NFS服务端、NFS节点之间的长连接。对于NFS节点的异常检测,通常是在NFS客户端与NFS节点建立长连接之后进行的,对于客户端所发送的数据处理请求,可以直接发送至NFS节点即可。但若检测到该NFS节点异常,会告知客户端;客户端会重新挂载到NFS备节点上,无需人工干预。
另外,LVS现有调度算法不支持Active-Standby(主备),只支持Active-Active(双活)模式,即前端使用两台负载均衡服务器,互为主备,且都处于活动状态,同时各自绑定一个公网虚拟IP,提供负载均衡服务;当其中一台发生故障时,另一台接管发生故障服务器的公网虚拟IP。这种方式经济实惠,适于当前架构环境。
上述实施例所提供的方法,提供NFS节点主备模式,可以在NFS主节点出现故障或者配置升级时,利用NFS备节点代替其继续工作,保证了数据处理服务的正常进行。
参见图7,示出的是本发明实施例提供的另一种可选的NFS节点配置方法的主要流程图,包括如下步骤:
S701:接收客户端传输的访问请求,确定所述访问请求中的挂载目录以及数据处理请求;
S702:根据挂载目录与VIP地址的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址对所述客户端进行挂载;其中,所述VIP地址由负载均衡配置;
S703:确定与所述VIP地址相应的NFS节点;
S704:对于数据写入请求,通过NFS节点写入数据写入请求中的第一数据至数据缓存以及分布式存储中,并生成写入完成信息传输至客户端;
S704’:对于数据读取请求,通过NFS节点依据数据读取请求中的元数据,在数据缓存或分布式存储中提取相应的第二数据并反馈至客户端。
上述实施方式中,对于步骤S701、S702可分别参见图3所示步骤S301以及S302的描述,对于步骤S703可参见图5所示步骤S503的描述,在此不再赘述。
数据处理请求,无外乎是数据写入或者是读取,本发明在分布式存储之前增加数据缓存部件,用以缓存所写入的数据、以及对缓存中实时数据的读取。
上述实施方式中,对于步骤S704,对于数据写入请求中的数据,可以存储至数据缓存以及分布式存储中,且数据缓存位于分布式存储之前,因此,对于数据的写入方式,可以多样:
1)边写边存:即在写数据至数据缓存的同时,也写入至分布式存储中;
2)写完之后再存储:即在数据缓存中写数据完毕后,再将写完毕的数据存储至分布式存储中。
在写入数据完毕后,NFS节点可以生成“写入成功”、“写入完毕”等信息,依据NFS服务端传输至客户端。
分布式文件存储用于数据备份、容灾、文件共享、日志信息存储等。这里的分布式文件存储主要有元数据服务模块、数据存储模块。元数据模块提供存储文件的元数据信息,包括文件拥有者,权限、文件属性等信息,数据存储模块则存储文件内容信息。
1)元数据模块:由多个服务构成,使用AA(active-active)方式提供服务,客户端读写大量文件时会分发到多个元数据服务上,提高了访问的并发量。
元数据服务同时也提供了standby节点,当active状态的元数据服务异常后,standby节点会接管异常的active节点并加载其提供的元数据信息,及时对外提供服务,保证了服务的高可用。
2)数据存储模块:由大量的数据存储服务构成,每个存储服务对应一个存储介质(常用的硬盘)。为保存数据的完整性、安全性和一致性,存储的数据通常采用副本的方式保存,并对数据进行分块(chunk size),分布到多个存储介质上。
例如,同时写几份(A、B、C),保证有存储介质出现故障后数据仍然可用(A故障,B、C可用),读数据的时候可以从几份中随机选择读取。不分块时是整个文件(C)的写入,进行分块后可以提高写的性能,每个分块(C1、C2、C3)是同时写入的,且在存储介质发生故障时,需要同步的数据只是文件中的一部分(块C2),进而提高数据恢复速度以及处理速度。
当一个存储介质发生故障时,其所承载的数据会同步到其它的介质上,保证数据的完整。整个分布式文件存储不会因为一个服务节点发生故障而导致整体不可用,例如元数据服务、数据存储服务,即无单节点故障,任一服务宕机都能正常提供服务。
对于步骤S704’,写数据时,将数据既写入数据缓存也写入分布式文件存储中,且写入数据缓存的时间戳≤写入分布式存储的时间戳。因此读取数据时,尤其是对实时性要求较高的数据,可以先判断数据缓存中是否存在相应数据,以提高数据读取速度。
但数据缓存的容量远小于分布式存储的容量,因此数据缓存中所存储的数据,可以是有一定的时间限制或是容量限制,例如:
1)只保留最近一个星期、一个月或者三个月的数据;
2)按照存储时间顺序,只保留写入时间最近的1万个数据。
由此可见,数据缓存中主要存储实时数据,分布式存储主要存储非实时数据。对存在数据缓存中查询结果不存在的情况,需在分布式存储中进行查询,这种情况对数据的实时性要求较低、对系统整体性能要求不高。
需要说明的是,所读取的数据,可以是已经写入完毕的实时数据、非实时数据,还可以是正在写入的数据。对于正在写入的数据,可以与写入步调同步,边写边读取。最终所读取的数据经NFS服务端反馈至客户端中进行显示。
对于数据的读取是依赖元数据(inode)进行。元数据可视为是目录,记录写入的文件(或者数据)的所有者、权限、大小、实际存储位置等信息。因此,在查找数据时,也可以根据该元数据查找对应的章节页数/数据存储位置,进而读取数据。
另外,NFS节点也可以配置并导出共享目录,实现主备节点的目录、信息同步。例如,通过NFS的/etc/exports配置,具体地/sharedir*(rw,no_root_squash),挂载mount–tnfs vip:/sharedir/mnt/localdir Sharedir是挂载了分布式文件系统的目录。
上述实施例所提供的方法,充分利用数据缓存功能,实现对实时数据的及时缓存、及时读取,减少了从分布式存储中读取的延时,并提供NFS的高可用功能。
本发明实施例所提供的方法,将读写同目录文件的客户端挂载到同一VIP地址对应的NFS节点上,减少从后端分布式文件存储上多次读取数据的情况。基于负载均衡LVS的Sorry-Server配置方式,解决实时数据读写延时的问题,具有实现文件读写高可用、低延时的效果。
参见图8,示出了本发明实施例提供的一种NFS节点配置装置800的主要模块示意图,包括:
接收模块801,用于接收客户端传输的访问请求,确定所述访问请求中的挂载目录;
挂载模块802,用于根据挂载目录与VIP地址之间的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址对所述客户端进行挂载;其中,所述VIP地址由负载均衡配置;
处理模块803,用于确定与所述VIP地址对应的NFS节点。
可选的,所述挂载模块802,用于:
若在预定挂载目录记录中查询存在所述挂载目录,则根据挂载目录与业务类型的映射关系,确定所述客户端所属业务类型;根据业务类型与VIP地址的映射关系,确定分配至所述客户端的VIP地址;或
若在预定挂载目录记录中查询不存在所述挂载目录,则拒绝所述客户端的访问。
可选的,所述NFS节点包括NFS主节点以及NFS备节点;
确定模块803,用于:当检测到所述NFS主节点为异常状态时,根据每个NFS备节点的当前服务状态以及预定选择方式,确定代替所述NFS主节点工作的NFS备节点。
可选的,所述访问请求还包括数据处理请求;所述装置还包括处理模块804(图中未标出),用于:传输所述数据处理请求至所确定的NFS节点,并将所述NFS节点所反馈的处理结果传输至所述客户端。
可选的,所述数据处理请求为数据写入请求,所述数据写入请求包括待写入的第一数据;
所述装置还包括数据写入模块805(图中未标出),用于:
所述NFS节点写入所述第一数据至预定数据缓存完毕后,存储所述第一数据至预定分布式存储中;或
所述NFS节点在写入所述第一数据至所述预定数据缓存的同时,存储所写入的所述第一数据至所述预定分布式存储中。
可选的,所述数据处理请求为数据读取请求,所述数据读取请求包括元数据;其中,所述元数据为待读取数据所处的目录,
所述装置还包括数据读取模块806(图中未标出),用于:
若所述NFS节点在预定数据缓存中查询存在所述元数据,提取所述预定缓存中与所述元数据相应的第二数据并输出;其中,所述第二数据为已写入完毕或正在写入的数据;或
若所述NFS节点在所述预定数据缓存中查询不存在所述元数据、且在分布式存储中查询存在所述元数据,则提取所述分布式存储中与所述元数据相应的所述第二数据并输出。
另外,在本发明实施例中所述NFS节点配置装置的具体实施内容,在上面所述NFS节点配置方法中已经详细说明了,故在此重复内容不再说明。
本发明实施例所提供的装置,将读写同目录文件的客户端挂载到同一NFS节点上,减少从后端分布式文件系统上多次读取数据的情况。基于负载均衡LVS的Sorry-Server配置HA的方式,解决实时数据读写延时的问题,可以实现文件读写高可用、低延时的效果。
图9示出了可以应用本发明实施例的NFS节点配置方法或NFS节点配置装置的示例性系统架构900。
如图9所示,系统架构900可以包括终端设备901、902、903,网络904和服务器905(仅仅是示例)。网络904用以在终端设备901、902、903和服务器905之间提供通信链路的介质。网络904可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备901、902、903通过网络904与服务器905交互,以接收或发送消息等。终端设备901、902、903上可以安装有各种通讯客户端应用。
终端设备901、902、903可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器905可以是提供各种服务的服务器,例如对用户利用终端设备901、902、903所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的产品信息查询请求等数据进行分析等处理,并将处理结果(例如目标推送信息、产品信息--仅为示例)反馈给终端设备。
需要说明的是,本发明实施例所提供的NFS节点配置方法一般由服务器905执行,相应地,NFS节点配置装置一般设置于服务器905中。
应该理解,图9中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图10,其示出了适于用来实现本发明实施例的终端设备的计算机系统1000的结构示意图。图10示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图10所示,计算机系统1000包括中央处理单元(CPU)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有系统1000操作所需的各种程序和数据。CPU 1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
以下部件连接至I/O接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被中央处理单元(CPU)1001执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括接收模块、挂载模块、处理模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如,挂载模块还可以被描述为“挂载客户端的模块”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:
接收客户端传输的访问请求,确定所述访问请求中的挂载目录;根据挂载目录与VIP地址之间的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址对所述客户端进行挂载;其中,所述VIP地址由负载均衡配置;确定与所述VIP地址相应的NFS节点。
本发明实施例的技术方案,将读写同目录文件的客户端挂载到同一VIP地址对应的NFS节点上,减少从后端分布式文件系统上多次读取数据的情况。基于负载均衡LVSSorry-Server配置HA的方式,解决实时数据读写延时的问题,具有实现文件读写高可用、低延时的效果。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (14)

1.一种NFS节点配置方法,将访问同目录的客户端挂载到同一个VIP地址下的NFS节点上,其特征在于,包括:
接收客户端传输的访问请求,确定所述访问请求中的挂载目录;
响应于判断所述挂载目录为NFS挂载目录,根据挂载目录与VIP地址之间的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址挂载所述客户端;其中,所述VIP地址由负载均衡配置,该挂载是确认客户端是否有访问NFS服务端的权限;
确定与所述VIP地址相应的NFS节点。
2.根据权利要求1所述的方法,其特征在于,所述根据挂载目录与VIP地址的映射关系,确定分配至所述客户端的VIP地址,包括:
若在预定挂载目录记录中查询存在所述挂载目录,则根据挂载目录与业务类型的映射关系,确定所述客户端所属业务类型;根据业务类型与VIP地址的映射关系,确定分配至所述客户端的VIP地址;或
若在预定挂载目录记录中查询不存在所述挂载目录,则拒绝所述客户端的访问。
3.根据权利要求1所述的方法,其特征在于,所述NFS节点包括NFS主节点以及NFS备节点;
所述确定与所述VIP地址相应的NFS节点包括:
当检测到所述NFS主节点为异常状态时,根据每个NFS备节点的当前服务状态以及预定选择方式,确定代替所述NFS主节点工作的NFS备节点。
4.根据权利要求1所述的方法,其特征在于,所述访问请求还包括数据处理请求;
在确定与所述VIP地址相应的NFS节点之后,还包括:
传输所述数据处理请求至所确定的NFS节点,并将所述NFS节点所反馈的处理结果传输至所述客户端。
5.根据权利要求4所述的方法,其特征在于,所述数据处理请求为数据写入请求,所述数据写入请求包括待写入的第一数据;
所述方法包括:
所述NFS节点写入所述第一数据至预定数据缓存完毕后,存储所述第一数据至预定分布式存储中;或
所述NFS节点在写入所述第一数据至所述预定数据缓存的同时,存储所写入的所述第一数据至所述预定分布式存储中。
6.根据权利要求4所述的方法,其特征在于,所述数据处理请求为数据读取请求,所述数据读取请求包括元数据;其中,所述元数据为待读取数据所处的目录,
所述方法包括:
若所述NFS节点在预定数据缓存中查询存在所述元数据,提取所述预定缓存中与所述元数据相应的第二数据并输出;其中,所述第二数据为已写入完毕或正在写入的数据;或
若所述NFS节点在所述预定数据缓存中查询不存在所述元数据、且在分布式存储中查询存在所述元数据,则提取所述分布式存储中与所述元数据相应的所述第二数据并输出。
7.一种NFS节点配置装置,将访问同目录的客户端挂载到同一个VIP地址下的NFS节点上,其特征在于,包括:
接收模块,用于接收客户端传输的访问请求,确定所述访问请求中的挂载目录;
挂载模块,用于响应于判断所述挂载目录为NFS挂载目录,根据挂载目录与VIP地址之间的映射关系,确定分配至所述客户端的VIP地址,以通过所述VIP地址挂载所述客户端;其中,所述VIP地址由负载均衡配置,该挂载是确认客户端是否有访问NFS服务端的权限;
确定模块,用于确定与所述VIP地址相应的NFS节点。
8.根据权利要求7所述的装置,其特征在于,所述挂载模块,用于:
若在预定挂载目录记录中查询存在所述挂载目录,则根据挂载目录与业务类型的映射关系,确定所述客户端所属业务类型;根据业务类型与VIP地址的映射关系,确定分配至所述客户端的VIP地址;或
若在预定挂载目录记录中查询不存在所述挂载目录,则拒绝所述客户端的访问。
9.根据权利要求7所述的装置,其特征在于,所述NFS节点包括NFS主节点以及NFS备节点;
所述确定模块,用于:当检测到所述NFS主节点为异常状态时,根据每个NFS备节点的当前服务状态以及预定选择方式,确定代替所述NFS主节点工作的NFS备节点。
10.根据权利要求9所述的装置,其特征在于,所述访问请求还包括数据处理请求;
所述装置还包括处理模块,用于:传输所述数据处理请求至所确定的NFS节点,并将所述NFS节点所反馈的处理结果传输至所述客户端。
11.根据权利要求10所述的装置,其特征在于,所述数据处理请求为数据写入请求,所述数据写入请求包括待写入的第一数据;
所述装置还包括数据写入模块,用于:
所述NFS节点写入所述第一数据至预定数据缓存完毕后,存储所述第一数据至预定分布式存储中;或
所述NFS节点在写入所述第一数据至所述预定数据缓存的同时,存储所写入的所述第一数据至所述预定分布式存储中。
12.根据权利要求10所述的装置,其特征在于,所述数据处理请求为数据读取请求,所述数据读取请求包括元数据;其中,所述元数据为待读取数据所处的目录,
所述装置还包括数据读取模块,用于:
若所述NFS节点在预定数据缓存中查询存在所述元数据,提取所述预定缓存中与所述元数据相应的第二数据并输出;其中,所述第二数据为已写入完毕或正在写入的数据;或
若所述NFS节点在所述预定数据缓存中查询不存在所述元数据、且在分布式存储中查询存在所述元数据,则提取所述分布式存储中与所述元数据相应的所述第二数据并输出。
13.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN201811406629.0A 2018-11-23 2018-11-23 一种nfs节点配置方法和装置 Active CN111225003B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811406629.0A CN111225003B (zh) 2018-11-23 2018-11-23 一种nfs节点配置方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811406629.0A CN111225003B (zh) 2018-11-23 2018-11-23 一种nfs节点配置方法和装置

Publications (2)

Publication Number Publication Date
CN111225003A CN111225003A (zh) 2020-06-02
CN111225003B true CN111225003B (zh) 2022-12-27

Family

ID=70828593

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811406629.0A Active CN111225003B (zh) 2018-11-23 2018-11-23 一种nfs节点配置方法和装置

Country Status (1)

Country Link
CN (1) CN111225003B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112148678B (zh) * 2020-09-18 2023-01-06 苏州浪潮智能科技有限公司 一种文件访问方法、系统、设备以及介质
CN113505111B (zh) * 2021-06-22 2024-03-12 新华三大数据技术有限公司 一种共享目录挂载方法及分布式网络附加存储系统
CN114448823B (zh) * 2022-01-27 2023-08-15 苏州浪潮智能科技有限公司 Nfs服务测试方法、系统及电子设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101931936A (zh) * 2009-06-22 2010-12-29 中兴通讯股份有限公司 业务数据的传输方法和系统、终端、用户数据处理实体
CN102113274A (zh) * 2008-06-09 2011-06-29 微软公司 没有结构化瓶颈的数据中心
CN102136003A (zh) * 2011-03-25 2011-07-27 上海交通大学 大规模分布式存储系统
CN103561101A (zh) * 2013-11-06 2014-02-05 中国联合网络通信集团有限公司 一种网络文件系统
CN104580437A (zh) * 2014-12-30 2015-04-29 创新科存储技术(深圳)有限公司 一种云存储客户端及其高效数据访问方法
CN105187523A (zh) * 2015-08-28 2015-12-23 北京奇艺世纪科技有限公司 一种目录访问方法及装置
CN105872119A (zh) * 2015-12-10 2016-08-17 乐视云计算有限公司 域名解析系统的实现方法及装置
CN106210147A (zh) * 2016-09-13 2016-12-07 郑州云海信息技术有限公司 一种基于轮询的负载均衡方法和装置
CN107070972A (zh) * 2016-12-30 2017-08-18 中国银联股份有限公司 一种分布式文件处理方法及装置
CN107404524A (zh) * 2017-07-24 2017-11-28 郑州云海信息技术有限公司 一种分布式集群节点访问的方法及装置
CN108023953A (zh) * 2017-12-04 2018-05-11 北京小度信息科技有限公司 Ftp服务的高可用实现方法和装置
CN108763370A (zh) * 2018-05-17 2018-11-06 杭州安恒信息技术股份有限公司 一种基于docker环境的数据库高可用实现方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8914521B2 (en) * 2011-09-27 2014-12-16 Oracle International Corporation System and method for providing active-passive routing in a traffic director environment
US10140312B2 (en) * 2016-03-25 2018-11-27 Amazon Technologies, Inc. Low latency distributed storage service

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102113274A (zh) * 2008-06-09 2011-06-29 微软公司 没有结构化瓶颈的数据中心
CN101931936A (zh) * 2009-06-22 2010-12-29 中兴通讯股份有限公司 业务数据的传输方法和系统、终端、用户数据处理实体
CN102136003A (zh) * 2011-03-25 2011-07-27 上海交通大学 大规模分布式存储系统
CN103561101A (zh) * 2013-11-06 2014-02-05 中国联合网络通信集团有限公司 一种网络文件系统
CN104580437A (zh) * 2014-12-30 2015-04-29 创新科存储技术(深圳)有限公司 一种云存储客户端及其高效数据访问方法
CN105187523A (zh) * 2015-08-28 2015-12-23 北京奇艺世纪科技有限公司 一种目录访问方法及装置
CN105872119A (zh) * 2015-12-10 2016-08-17 乐视云计算有限公司 域名解析系统的实现方法及装置
CN106210147A (zh) * 2016-09-13 2016-12-07 郑州云海信息技术有限公司 一种基于轮询的负载均衡方法和装置
CN107070972A (zh) * 2016-12-30 2017-08-18 中国银联股份有限公司 一种分布式文件处理方法及装置
CN107404524A (zh) * 2017-07-24 2017-11-28 郑州云海信息技术有限公司 一种分布式集群节点访问的方法及装置
CN108023953A (zh) * 2017-12-04 2018-05-11 北京小度信息科技有限公司 Ftp服务的高可用实现方法和装置
CN108763370A (zh) * 2018-05-17 2018-11-06 杭州安恒信息技术股份有限公司 一种基于docker环境的数据库高可用实现方法

Also Published As

Publication number Publication date
CN111225003A (zh) 2020-06-02

Similar Documents

Publication Publication Date Title
US10782880B2 (en) Apparatus and method for providing storage for providing cloud services
US10275232B1 (en) Architecture for incremental deployment
US11157457B2 (en) File management in thin provisioning storage environments
CN107734026B (zh) 一种网络附加存储集群的设计方法、装置及设备
EP2923272B1 (en) Distributed caching cluster management
US10462250B2 (en) Distributed caching cluster client configuration
US9262323B1 (en) Replication in distributed caching cluster
US8984162B1 (en) Optimizing performance for routing operations
CN111225003B (zh) 一种nfs节点配置方法和装置
US9529772B1 (en) Distributed caching cluster configuration
EP3739440A1 (en) Distributed storage system, data processing method and storage node
US20170153909A1 (en) Methods and Devices for Acquiring Data Using Virtual Machine and Host Machine
CN108540510B (zh) 一种云主机创建方法、装置及云服务系统
US11461053B2 (en) Data storage system with separate interfaces for bulk data ingestion and data access
US10545667B1 (en) Dynamic data partitioning for stateless request routing
WO2016101662A1 (zh) 一种数据处理方法及相关服务器
US11343308B2 (en) Reduction of adjacent rack traffic in multi-rack distributed object storage systems
US10324652B2 (en) Methods for copy-free data migration across filesystems and devices thereof
US11064020B2 (en) Connection load distribution in distributed object storage systems
CN114490540A (zh) 数据存储方法、介质、装置和计算设备
US10712959B2 (en) Method, device and computer program product for storing data
US10768834B2 (en) Methods for managing group objects with different service level objectives for an application and devices thereof
CN111352916A (zh) 基于nas存储系统的数据存储方法、系统及存储介质
US10887429B1 (en) Processing multi-protocol redirection links
KR100751075B1 (ko) Nas 상에서 병렬 전송 기술을 이용한 원격 미러링시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant after: Jingdong Digital Technology Holding Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant before: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant after: Jingdong Technology Holding Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant before: Jingdong Digital Technology Holding Co.,Ltd.

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant after: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant before: BEIJING JINGDONG FINANCIAL TECHNOLOGY HOLDING Co.,Ltd.

GR01 Patent grant
GR01 Patent grant