CN107734026A - 一种网络附加存储集群的设计方法、装置及设备 - Google Patents

一种网络附加存储集群的设计方法、装置及设备 Download PDF

Info

Publication number
CN107734026A
CN107734026A CN201710942598.XA CN201710942598A CN107734026A CN 107734026 A CN107734026 A CN 107734026A CN 201710942598 A CN201710942598 A CN 201710942598A CN 107734026 A CN107734026 A CN 107734026A
Authority
CN
China
Prior art keywords
virtual machine
gluster
memory node
local
access request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710942598.XA
Other languages
English (en)
Other versions
CN107734026B (zh
Inventor
戚勇
吕玉彬
张会健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Zhengzhou Yunhai Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Yunhai Information Technology Co Ltd filed Critical Zhengzhou Yunhai Information Technology Co Ltd
Priority to CN201710942598.XA priority Critical patent/CN107734026B/zh
Publication of CN107734026A publication Critical patent/CN107734026A/zh
Application granted granted Critical
Publication of CN107734026B publication Critical patent/CN107734026B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • H04L41/0663Performing the actions predefined by failover planning, e.g. switching to standby network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/10Active monitoring, e.g. heartbeat, ping or trace-route
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1044Group management mechanisms 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种网络附加存储集群的设计方法、装置、设备、计算机可读存储介质及网络附加存储集群系统。其中,方法包括预先为本地各存储节点的控制器设置相应的虚拟机,并为各虚拟机安装预先定制的centos镜像,添加相应的磁盘,并将各磁盘格式化为本地文件系统;分别为各虚拟机设置Gluster FS服务器端和Gluster FS客户端;当存储节点接收到文件访问请求时,将文件访问请求发送给内核态VFS层,再通过FUSE模块发送至相应的Gluster FS客户端,利用TCP/IP协议将其发送至目的Gluster FS服务器端,最后将文件访问请求发送至本地文件系统,本地文件系统将文件访问请求对应的数据原路返回给存储节点,以完成数据的访问。提高了网络附加存储集群的可靠性、可用性及稳定性。

Description

一种网络附加存储集群的设计方法、装置及设备
技术领域
本发明实施例涉及分布式存储技术领域,特别是涉及一种网络附加存储集群的设计方法、装置、设备、计算可读机存储介质及网络附加存储集群系统。
背景技术
随着存储技术的快速发展,存储集群应用而生。集群为由多个节点构成的一种松散耦合的计算节点集合,协同对外提供服务。NAS(Network Attached Storage,网络附加存储)为一种直接连接在网络上的存储结构,支持多种文件传输协议,如NFS、CIFS以供Linux和Windows用户访问。
集群NAS为一种横向扩展存储架构,具有容量和性能线性扩展的优势,协同多个节点提供高性能、高可用或高负载均衡的NAS(NFS/CIFS)服务。集群NAS在高性能计算HPC、广电IPTV、视频监控、云存储等行业领域将逐步得到广泛应用。
集群NAS从整体架构上由存储子系统、NAS集群、客户端和网络组成。NAS集群是NFS/CIS网关,为客户端提供标准文件级的NAS服务。NAS集群安装集群文件系统客户端实现对全局存储空间的访问,并通过NFS/CIFS协议对外提供服务,该架构下集群的扩展通过增加存储节点实现,可同时增加存储空间和性能,并很容易实现接近线性扩展。由于后端存储通常采用的是标准的廉价设备,因此在成本上可以做到很低,有利于做大规模的集群。
集群NAS一般可采用集群文件系统架构方式,现有的集群文件系统架构方式,后端存储采用DAS,每个存储服务器直连各自的存储系统,通常为一组SATA磁盘,然后由集群文件系统统一管理物理分布的存储空间而形成一个单一命名空间的文件系统。目前主流的集群文件系统分为有元数据和无元数据两类。前者需要专用的元数据服务器MDC或者分布式的元数据服务集群提供元数据控制和统一命名空间。NAS集群安装集群文件系统客户端实现对全局存储空间的访问,并通过NFS/CIFS协议对外提供服务。NAS集群通常与元数据服务集群或者存储节点集群运行在相同的物理节点上,从而减少物理节点部署的规模,当然会对性能产生一定的影响。
但是,由于集群NAS的扩展通过增加存储节点来实现,尽管可扩展存储空间和性能,由于服务器和存储介质都可以采用通用标准的廉价设备,在成本上有很大优势,规模可以很大。然而,这类设备是非常容易发生故障的,服务器或者磁盘的损坏都会导致部分数据不可用,需要采用HA机制保证服务器的可用性,采用复制保证数据的可用性,这往往会降低系统性能和存储利用率。
鉴于此,如何提高基于集群文件系统架构方式的NAS集群的性能,是本领域技术人员亟待解决的问题。
发明内容
本发明实施例的目的是提供一种网络附加存储集群的设计方法、装置、设备、计算可读机存储介质及网络附加存储集群系统,提高了基于集群文件系统架构方式的NAS集群的可靠性、可用性及稳定性。
为解决上述技术问题,本发明实施例提供以下技术方案:
本发明实施例一方面提供了一种网络附加存储集群的设计方法,包括:
预先为本地各存储节点的控制器设置相应的虚拟机,并为各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统;分别为各虚拟机设置Gluster FS服务器端和Gluster FS客户端,各虚拟机间通过CTDB private IP实现心跳控制;
当存储节点接收到文件访问请求时,将所述文件访问请求发送给内核态VFS层,以使所述VFS层将所述文件访问请求通过FUSE模块发送至相应的虚拟机的Gluster FS客户端;
接收Gluster FS客户端反馈的目的Gluster FS服务器端,利用TCP/IP协议将所述文件访问请求发送至所述目的Gluster FS服务器端,以使所述目的Gluster FS服务器端经所述VFS层,将所述文件访问请求发送至本地文件系统,所述本地文件系统将所述文件访问请求对应的数据原路返回给所述存储节点,以完成数据的访问;
其中,利用Samba组件为Windows环境的存储节点提供CIFS协议支持,通过内核nfs模块提供NFS服务,通过vsftpd提供安全FTP服务。
可选的,还包括:
当检测到源存储节点发生故障后,利用CTDB将所述源存储节点对应虚拟机的源public ip,随机分配给本地除所述源存储节点之外的其余任何一个存储节点对应的虚拟机;
当检测到所述源存储节点运行正常时,将漂移的源public ip重新分配给所述源存储节点对应的虚拟机。
可选的,所述接收Gluster FS客户端反馈的目的Gluster FS服务器端包括:
接收Gluster FS客户端反馈的目的Gluster FS服务器端;
其中,所述目的Gluster FS服务器端为所述Gluster FS客户端接收到所述文件访问请求后,利用弹性哈希算法根据所述文件访问请求对应的目录和文件名计算所得。
可选的,还包括:
将所述本地文件系统的缓存设置为关闭状态。
可选的,所述本地文件系统为EXT4。
本发明实施例另一方面提供了一种网络附加存储集群的设计装置,包括:
预配置模块,用于预先为本地各存储节点的控制器设置相应的虚拟机,并为各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统;分别为各虚拟机设置Gluster FS服务器端和Gluster FS客户端,各虚拟机间通过CTDB private IP实现心跳控制;
接收数据访问请求模块,用于当存储节点接收到文件访问请求时,将所述文件访问请求发送给内核态VFS层,以使所述VFS层将所述文件访问请求通过FUSE模块发送至相应的虚拟机的Gluster FS客户端;
数据访问处理模块,用于接收Gluster FS客户端反馈的目的Gluster FS服务器端,利用TCP/IP协议将所述文件访问请求发送至所述目的Gluster FS服务器端,以使所述目的Gluster FS服务器端经所述VFS层,将所述文件访问请求发送至本地文件系统,所述本地文件系统将所述文件访问请求对应的数据原路返回给所述存储节点,以完成数据的访问。
可选的,还包括虚拟机管理模块,所述虚拟机管理模块包括:
虚拟机接管单元,用于当检测到源存储节点发生故障后,利用CTDB将所述源存储节点对应虚拟机的源public ip,随机分配给本地除所述源存储节点之外的其余任何一个存储节点对应的虚拟机;
虚拟机回切单元,用于当检测到所述源存储节点运行正常时,将漂移的源publicip重新分配给所述源存储节点对应的虚拟机。
本发明实施例还提供了一种网络附加存储集群的设计设备,包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如前任一项所述网络附加存储集群的设计方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有网络附加存储集群的设计程序,所述网络附加存储集群的设计程序被处理器执行时实现如前任一项所述网络附加存储集群的设计方法的步骤。
本发明实施例最后还提供了一种网络附加存储集群系统,包括:
虚拟机nas集群、本地文件系统、Gluster FS文件系统及本地存储设备;
其中,所述虚拟机nas集群包括多个设置在本地各存储节点的控制器上的虚拟机,虚拟机和控制器一一对应;各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统,使每个存储节点对应一个本地文件系统,以提供NAS文件服务;各虚拟机上均设置Gluster FS服务器端和Gluster FS客户端,且虚拟机间通过CTDB private IP实现心跳控制,以实现通过GlusterFS文件系统和CTDB对虚拟机nas集群进行管理;
所述本地文件系统用于存储网络附加存储集群系统的数据。
本发明实施例提供了一种网络附加存储集群的设计方法,预先为本地各存储节点的控制器设置相应的虚拟机,并为各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统;分别为各虚拟机设置Gluster FS服务器端和Gluster FS客户端,各虚拟机间通过CTDB privateIP实现心跳控制;当存储节点接收到文件访问请求时,将文件访问请求发送给内核态VFS层,通过FUSE模块发送至相应的虚拟机的Gluster FS客户端;接收Gluster FS客户端反馈的目的Gluster FS服务器端,利用TCP/IP协议将文件访问请求发送至目的Gluster FS服务器端,最后将文件访问请求发送至本地文件系统,本地文件系统将文件访问请求对应的数据原路返回给存储节点,以完成数据的访问。
本申请提供的技术方案的优点在于,基于Gluster FS分布式文件系统在各存储节点对应的控制器上设置虚拟机,以实现在廉价存储设备上构建大容量、高性能、易于扩展的集群nas系统,实现了业务和数据的冗余,提供了稳定、高性能、高可用性、高可靠性的文件服务。不仅能够充分利用企业现有的硬件资源,降低企业运营成本,而且还可以实现企业对自身数据资源的灵活管控和便捷使用,具有好的社会经济效益。
此外,本发明实施例还针对网络附加存储集群的设计方法提供了相应的实现装置、设备、计算可读机存储介质及网络附加存储集群系统,进一步使得所述方法更具有实用性,所述装置、设备、计算可读机存储介质及网络附加存储集群系统具有相应的优点。
附图说明
为了更清楚的说明本发明实施例或现有技术的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种网络附加存储集群的设计方法的流程示意图;
图2为本发明实施例提供的另一种网络附加存储集群的设计方法的流程示意图;
图3为本发明实施例提供的网络附加存储集群的设计装置的一种具体实施方式结构图;
图4为本发明实施例提供的网络附加存储集群的设计装置的另一种具体实施方式结构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等是用于区别不同的对象,而不是用于描述特定的顺序。此外术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。
在介绍了本发明实施例的技术方案后,下面详细的说明本申请的各种非限制性实施方式。
首先参见图1,图1为本发明实施例提供的一种网络附加存储集群的设计方法的流程示意图,本发明实施例可包括以下内容:
S101:预先为本地各存储节点的控制器设置相应的虚拟机,并为各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统;分别为各虚拟机设置Gluster FS服务器端和Gluster FS客户端,各虚拟机间通过CTDB private IP实现心跳控制。
本地存储节点可为本地磁盘阵列上的各个存储设备,各存储节点对应各自的控制器,各控制器可通过iscsi连接到本地磁盘阵列。且每个存储节点对应自己的一个本地文件系统。同一时刻只能有一个存储节点进行读写访问。
本地文件系统用于存储集群内实际数据,可采用EXT4文件系统,当然,也可为其他系统,本申请对此不做任何限定。可预先将本地文件系统的缓存设置为关闭状态,以避免进行缓存数据掉电保护,从而确保共享业务的数据写入时直接刷入卷。
每个控制器上设置一台虚拟机,虚拟机上安装预先定制的centos镜像,centos镜像系统为共享协议(例如nfs、cifs、ftp)的centos系统,例如centos7操作系统,可用CTDB进行集群管理,以实现冗余,从而保护业务不会中断。虚拟机集群通过CTDB负责业务IP漂移管理,通过业务IP对外提供文件系统服务。虚机间可采用CTDB private IP实现心跳控制。
为每个虚拟机分别添加一块磁盘设备/dev/sdx,每个控制器内的虚拟机通过iscsi协议连接一个卷,创建文件系统时,需用户指定的主存储节点的控制器将/dev/sdx格式化为本地文件系统,并挂载到文件系统目录。预创建卷虚拟磁盘vdisk,vdisk为从后端磁盘分割,利用分割出的vdisk,把磁盘设备被映射到虚拟机上,便可格式化为本地文件系统了。
虚拟机及其内部通信全部采用内部ip,用户不可见,NAS服务请求通过MacVTap虚拟网桥转发到内部网络。当前存储节点虚拟机正常工作时,NAS服务请求经过虚拟机业务IP转发到本存储节点的虚拟机。当该存储节点的虚拟机,NAS集群利用CTDB将内部业务IP漂移到其他存储节点,NAS服务请求也通过内部网桥转发到相应节点。
可采用开源集群文件系统,Gluster FS分布式存储系统作为集群NAS系统的架构主体,实现文件的存储和访问,通过Samba组件对Windows用户(也就是存储节点的运行环境为Windows)提供CIFS协议支持,通过内核nfs模块提供NFS服务,通过vsftpd提供安全FTP服务。
Gluster FS分布式文件系统用于提供集群NAS中节点管理等功能。Gluster FS分布式文件系统分为Gluster FS服务器端和客户端,其中服务器端负责数据存放策略(如分布卷、复制卷、条带卷等)、文件访问定位(通过弹性哈希算法)、存储池的管理等节点。它将各节点加入存储池,本地文件系统的一个文件夹作为一个brick,Gluster FS通过组合brick创建volume对外提供访问,Gluster FS客户端通过glusterfs协议挂载volume以实现对外的访问。将Gluster FS文件系统的客户端和服务器端部署在同一个存储节点上的虚拟机上。
S102:当存储节点接收到文件访问请求时,将文件访问请求发送给内核态VFS层,以使VFS层将文件访问请求通过FUSE模块发送至相应的虚拟机的Gluster FS客户端。
S103:接收Gluster FS客户端反馈的目的Gluster FS服务器端,利用TCP/IP协议将文件访问请求发送至目的Gluster FS服务器端,以使目的Gluster FS服务器端经VFS层,将文件访问请求发送至本地文件系统,本地文件系统将文件访问请求对应的数据原路返回给存储节点,以完成数据的访问。
当存储节点接收到上层的文件访问请求时,先交给内核态的VFS层,再转交给FUSE模块,Gluster FS客户端也是基于FUSE在用户态实现的,Gluster FS客户端收到FUSE传来的请求后,通过弹性哈希算法以文件访问请求对应的目录和文件名作为输入参数而得出具体需要访问哪个服务器端(目的Gluster FS服务器),再通过TCP/IP协议将请求交给目的Gluster FS服务器端,经内核态VFS层转发给本地文件系统并原路返回从而完成数据的访问。
CIFS实现对Windows环境客户端的文件访问支持,NFS实现对Linux客户端的支持,VSFTP实现良好的加密ftp共享。CIFS实现对Windows环境的访问用Samba实现,Samba是一种用来让类UNIX操作系统与微软Windows操作系统的SMB/CIFS(Server Message Block/Common Internet File System)网络协议互相连接的开源软件。NFS是基于文件系统访问用于Unix操作系统平台(比如:AIX、HP-UX、各种Linux)的访问协议,主要功能是通过网络让不同的机器系统之间可以彼此共享文件和目录。NFS服务器可以允许NFS客户端将远端NFS服务器端的共享目录挂载到本地的NFS客户端中。在本地的NFS客户端的机器看来,NFS服务器端共享的目录就好像自己的磁盘分区和目录一样。VSFTP提供ftp共享服务,VSFTP具有很好的安全特性,高速与高稳定性也是VSFTP的两个重要特点。
在本发明实施例提供的技术方案中,基于Gluster FS分布式文件系统在各存储节点对应的控制器上设置虚拟机,以实现在廉价存储设备上构建大容量、高性能、易于扩展的集群nas系统,实现了业务和数据的冗余,提供了稳定、高性能、高可用性、高可靠性的文件服务。不仅能够充分利用企业现有的硬件资源,降低企业运营成本,而且还可以实现企业对自身数据资源的灵活管控和便捷使用,具有好的社会经济效益。
考虑到运行当前任务的虚拟机或虚拟机对应的存储节点会出现故障,为了保证用户业务不中断,基于上述实施例,请参阅图2,还可包括:
S104:当检测到源存储节点发生故障后,利用CTDB将源存储节点对应虚拟机的源public ip,随机分配给本地除源存储节点之外的其余任何一个存储节点对应的虚拟机;
S105:当检测到源存储节点运行正常时,将漂移的源public ip重新分配给源存储节点对应的虚拟机。
源存储节点可为当前运行任务的节点。
CTDB实现了不同节点间同享文件锁,对用户和用户组进行统一管理。在具体配置上,CTDB配置两组IP,分别为Public IP和Private IP,其中,Public IP用于提供外部文件系统服务访问,Private IP用于节点上虚拟机心跳和内部通信。Public IP在所有节点的虚拟机上是动态分配的,当存储节点发生宕机或者故障时,CTDB将分配其它节点虚拟机接管原先分配的Public IP,一旦故障节点恢复,漂移的Public IP会被原来的节点虚拟机重新接管。由于整个过程对客户端是透明的,因此应用不会中断,也就实现了高可用性,从而实现了业务和数据的冗余,以提供稳定、高性能、高可用性、高可靠性的文件服务。
本发明实施例还针对网络附加存储集群的设计方法提供了相应的实现装置,进一步使得所述方法更具有实用性。下面对本发明实施例提供的网络附加存储集群的设计装置进行介绍,下文描述的网络附加存储集群的设计装置与上文描述的网络附加存储集群的设计方法可相互对应参照。
参见图3,图3为本发明实施例提供的**装置在一种具体实施方式下的结构图,该装置可包括:
预配置模块301,用于预先为本地各存储节点的控制器设置相应的虚拟机,并为各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统;分别为各虚拟机设置Gluster FS服务器端和Gluster FS客户端,各虚拟机间通过CTDB private IP实现心跳控制。
接收数据访问请求模块302,用于当存储节点接收到文件访问请求时,将文件访问请求发送给内核态VFS层,以使VFS层将文件访问请求通过FUSE模块发送至相应的虚拟机的Gluster FS客户端。
数据访问处理模块303,用于接收Gluster FS客户端反馈的目的Gluster FS服务器端,利用TCP/IP协议将文件访问请求发送至目的Gluster FS服务器端,以使目的GlusterFS服务器端经VFS层,将文件访问请求发送至本地文件系统,本地文件系统将文件访问请求对应的数据原路返回给存储节点,以完成数据的访问。
可选的,在本实施例的一些实施方式中,请参阅图4,所述装置例如还可以包括虚拟机管理模块304,所述虚拟机管理模块包括:
虚拟机接管单元,用于当检测到源存储节点发生故障后,利用CTDB将源存储节点对应虚拟机的源public ip,随机分配给本地除源存储节点之外的其余任何一个存储节点对应的虚拟机;
虚拟机回切单元,用于当检测到源存储节点运行正常时,将漂移的源public ip重新分配给源存储节点对应的虚拟机。
可选的,在本实施例的另一些实施方式中,所述装置例如还可以包括:
状态设置模块305,用于将本地文件系统的缓存设置为关闭状态。
本发明实施例所述网络附加存储集群的设计装置的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例基于Gluster FS分布式文件系统在各存储节点对应的控制器上设置虚拟机,以实现在廉价存储设备上构建大容量、高性能、易于扩展的集群nas系统,实现了业务和数据的冗余,提供了稳定、高性能、高可用性、高可靠性的文件服务。不仅能够充分利用企业现有的硬件资源,降低企业运营成本,而且还可以实现企业对自身数据资源的灵活管控和便捷使用,具有好的社会经济效益。
本发明实施例还提供了一种网络附加存储集群的设计设备,可包括:
存储器,用于存储计算机程序;
处理器,用于执行计算机程序以实现如上任意一实施例所述网络附加存储集群的设计方法的步骤。
本发明实施例所述网络附加存储集群的设计设备的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
本发明实施例提供了稳定、高性能、高可用性、高可靠性的文件服务,不仅能够充分利用企业现有的硬件资源,降低企业运营成本,而且还可以实现企业对自身数据资源的灵活管控和便捷使用,具有好的社会经济效益。
本发明实施例还提供了一种计算机可读存储介质,存储有网络附加存储集群的设计程序,所述网络附加存储集群的设计程序被处理器执行时如上任意一实施例所述网络附加存储集群的设计方法的步骤。
本发明实施例所述计算机可读存储介质的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
本发明实施例提供了稳定、高性能、高可用性、高可靠性的文件服务,不仅能够充分利用企业现有的硬件资源,降低企业运营成本,而且还可以实现企业对自身数据资源的灵活管控和便捷使用,具有好的社会经济效益。
本发明实施例最后还提供了一种网络附加存储集群系统,包括:
虚拟机nas集群、本地文件系统、Gluster FS文件系统及本地存储设备;
其中,虚拟机nas集群包括多个设置在本地各存储节点的控制器上的虚拟机,虚拟机和控制器一一对应;各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统,使每个存储节点对应一个本地文件系统,以提供NAS文件服务;各虚拟机上均设置Gluster FS服务器端和Gluster FS客户端,且虚拟机间通过CTDB private IP实现心跳控制,以实现通过GlusterFS文件系统和CTDB对虚拟机nas集群进行管理;
本地文件系统用于存储网络附加存储集群系统的数据。
本发明实施例所述网络附加存储集群系统的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
本发明实施例提供了稳定、高性能、高可用性、高可靠性的文件服务,不仅能够充分利用企业现有的硬件资源,降低企业运营成本,而且还可以实现企业对自身数据资源的灵活管控和便捷使用,具有好的社会经济效益。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明所提供的一种网络附加存储集群的设计方法、装置、设备、计算可读机存储介质及网络附加存储集群系统进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种网络附加存储集群的设计方法,其特征在于,包括:
预先为本地各存储节点的控制器设置相应的虚拟机,并为各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统;分别为各虚拟机设置Gluster FS服务器端和Gluster FS客户端,各虚拟机间通过CTDB private IP实现心跳控制;
当存储节点接收到文件访问请求时,将所述文件访问请求发送给内核态VFS层,以使所述VFS层将所述文件访问请求通过FUSE模块发送至相应的虚拟机的Gluster FS客户端;
接收Gluster FS客户端反馈的目的Gluster FS服务器端,利用TCP/IP协议将所述文件访问请求发送至所述目的Gluster FS服务器端,以使所述目的Gluster FS服务器端经所述VFS层,将所述文件访问请求发送至本地文件系统,所述本地文件系统将所述文件访问请求对应的数据原路返回给所述存储节点,以完成数据的访问;
其中,利用Samba组件为Windows环境的存储节点提供CIFS协议支持,通过内核nfs模块提供NFS服务,通过vsftpd提供安全FTP服务。
2.根据权利要求1所述的网络附加存储集群的设计方法,其特征在于,还包括:
当检测到源存储节点发生故障后,利用CTDB将所述源存储节点对应虚拟机的源publicip,随机分配给本地除所述源存储节点之外的其余任何一个存储节点对应的虚拟机;
当检测到所述源存储节点运行正常时,将漂移的源public ip重新分配给所述源存储节点对应的虚拟机。
3.根据权利要求1所述的网络附加存储集群的设计方法,其特征在于,所述接收Gluster FS客户端反馈的目的Gluster FS服务器端包括:
接收Gluster FS客户端反馈的目的Gluster FS服务器端;
其中,所述目的Gluster FS服务器端为所述Gluster FS客户端接收到所述文件访问请求后,利用弹性哈希算法根据所述文件访问请求对应的目录和文件名计算所得。
4.根据权利要求1至3任意一项所述的网络附加存储集群的设计方法,其特征在于,还包括:
将所述本地文件系统的缓存设置为关闭状态。
5.根据权利要求4所述的网络附加存储集群的设计方法,其特征在于,所述本地文件系统为EXT4。
6.一种网络附加存储集群的设计装置,其特征在于,包括:
预配置模块,用于预先为本地各存储节点的控制器设置相应的虚拟机,并为各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统;分别为各虚拟机设置Gluster FS服务器端和Gluster FS客户端,各虚拟机间通过CTDB private IP实现心跳控制;
接收数据访问请求模块,用于当存储节点接收到文件访问请求时,将所述文件访问请求发送给内核态VFS层,以使所述VFS层将所述文件访问请求通过FUSE模块发送至相应的虚拟机的Gluster FS客户端;
数据访问处理模块,用于接收Gluster FS客户端反馈的目的Gluster FS服务器端,利用TCP/IP协议将所述文件访问请求发送至所述目的Gluster FS服务器端,以使所述目的Gluster FS服务器端经所述VFS层,将所述文件访问请求发送至本地文件系统,所述本地文件系统将所述文件访问请求对应的数据原路返回给所述存储节点,以完成数据的访问。
7.根据权利要求6所述的网络附加存储集群的设计装置,其特征在于,还包括虚拟机管理模块,所述虚拟机管理模块包括:
虚拟机接管单元,用于当检测到源存储节点发生故障后,利用CTDB将所述源存储节点对应虚拟机的源public ip,随机分配给本地除所述源存储节点之外的其余任何一个存储节点对应的虚拟机;
虚拟机回切单元,用于当检测到所述源存储节点运行正常时,将漂移的源public ip重新分配给所述源存储节点对应的虚拟机。
8.一种网络附加存储集群的设计设备,其特征在于,包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如权利要求1至5任一项所述网络附加存储集群的设计方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有网络附加存储集群的设计程序,所述网络附加存储集群的设计程序被处理器执行时实现如权利要求1至5任一项所述网络附加存储集群的设计方法的步骤。
10.一种网络附加存储集群系统,其特征在于,包括:
虚拟机nas集群、本地文件系统、Gluster FS文件系统及本地存储设备;
其中,所述虚拟机nas集群包括多个设置在本地各存储节点的控制器上的虚拟机,虚拟机和控制器一一对应;各虚拟机安装预先定制的centos镜像;利用iscsi将各虚拟机链接在本地磁盘阵列,并将各虚拟机对应的磁盘设备格式化为本地文件系统,使每个存储节点对应一个本地文件系统,以提供NAS文件服务;各虚拟机上均设置Gluster FS服务器端和Gluster FS客户端,且虚拟机间通过CTDB private IP实现心跳控制,以实现通过GlusterFS文件系统和CTDB对虚拟机nas集群进行管理;
所述本地文件系统用于存储网络附加存储集群系统的数据。
CN201710942598.XA 2017-10-11 2017-10-11 一种网络附加存储集群的设计方法、装置及设备 Active CN107734026B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710942598.XA CN107734026B (zh) 2017-10-11 2017-10-11 一种网络附加存储集群的设计方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710942598.XA CN107734026B (zh) 2017-10-11 2017-10-11 一种网络附加存储集群的设计方法、装置及设备

Publications (2)

Publication Number Publication Date
CN107734026A true CN107734026A (zh) 2018-02-23
CN107734026B CN107734026B (zh) 2020-10-16

Family

ID=61210882

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710942598.XA Active CN107734026B (zh) 2017-10-11 2017-10-11 一种网络附加存储集群的设计方法、装置及设备

Country Status (1)

Country Link
CN (1) CN107734026B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108494877A (zh) * 2018-04-13 2018-09-04 郑州云海信息技术有限公司 一种nas集群系统及nas集群运行方法
CN108769151A (zh) * 2018-05-15 2018-11-06 新华三技术有限公司 一种业务处理方法和装置
CN109271264A (zh) * 2018-08-30 2019-01-25 郑州云海信息技术有限公司 一种通信连接建立方法及装置
CN109491764A (zh) * 2018-11-20 2019-03-19 郑州云海信息技术有限公司 一种基于openstack的虚拟机故障管理方法
CN109840247A (zh) * 2018-12-18 2019-06-04 深圳先进技术研究院 文件系统及数据布局方法
CN110347656A (zh) * 2019-06-27 2019-10-18 苏州浪潮智能科技有限公司 文件存储系统中请求的管理方法和装置
CN110519349A (zh) * 2019-08-15 2019-11-29 济南浪潮数据技术有限公司 一种基于DNS固定分配虚拟ip的负载均衡方法及装置
CN110677441A (zh) * 2018-07-02 2020-01-10 中国移动通信集团有限公司 一种对象存储集群的访问方法及装置
CN111078119A (zh) * 2018-10-18 2020-04-28 深信服科技股份有限公司 一种数据重建方法、系统、装置及计算机可读存储介质
CN111770054A (zh) * 2020-05-28 2020-10-13 苏州浪潮智能科技有限公司 一种针对smb协议读请求的交互加速方法与系统
CN111767257A (zh) * 2020-06-28 2020-10-13 星辰天合(北京)数据科技有限公司 基于fuse文件系统和nfs协议的数据传输方法及装置
CN112437124A (zh) * 2020-11-09 2021-03-02 北京金山云网络技术有限公司 流量镜像请求的处理方法、装置及负载均衡服务器
CN112650727A (zh) * 2020-12-09 2021-04-13 湖南麒麟信安科技股份有限公司 一种面向网络存储系统的通用权限与配额管理系统与方法
CN112965790A (zh) * 2021-03-29 2021-06-15 华云数据控股集团有限公司 一种基于pxe协议的虚拟机启动方法及电子设备
CN115102972A (zh) * 2022-07-15 2022-09-23 济南浪潮数据技术有限公司 一种存储nfs文件的方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101237400A (zh) * 2008-01-24 2008-08-06 创新科存储技术(深圳)有限公司 网络附加存储服务的迁移方法及网络附加存储节点
CN103176831A (zh) * 2011-12-22 2013-06-26 中国移动通信集团公司 一种虚拟机系统及其管理方法
CN103209219A (zh) * 2013-04-23 2013-07-17 深圳市京华科讯科技有限公司 一种分布式集群文件系统
US8812566B2 (en) * 2011-05-13 2014-08-19 Nexenta Systems, Inc. Scalable storage for virtual machines
US9712379B2 (en) * 2013-01-25 2017-07-18 Red Hat, Inc. Robust cloud instance launching

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101237400A (zh) * 2008-01-24 2008-08-06 创新科存储技术(深圳)有限公司 网络附加存储服务的迁移方法及网络附加存储节点
US8812566B2 (en) * 2011-05-13 2014-08-19 Nexenta Systems, Inc. Scalable storage for virtual machines
CN103176831A (zh) * 2011-12-22 2013-06-26 中国移动通信集团公司 一种虚拟机系统及其管理方法
US9712379B2 (en) * 2013-01-25 2017-07-18 Red Hat, Inc. Robust cloud instance launching
CN103209219A (zh) * 2013-04-23 2013-07-17 深圳市京华科讯科技有限公司 一种分布式集群文件系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHUAN LIN,ETC: "SDVC:A Scalable Deduplication Cluster for Virtual Machine Images", 《2014 9TH IEEE INTERNATIONAL CONFERENCE ON NETWORKING, ARCHITECTURE, AND STORAGE》 *
李帅,等: "分布式镜像存储环境下的虚拟机快速部署算法", 《计算机仿真》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108494877A (zh) * 2018-04-13 2018-09-04 郑州云海信息技术有限公司 一种nas集群系统及nas集群运行方法
CN108769151B (zh) * 2018-05-15 2019-11-12 新华三技术有限公司 一种业务处理方法和装置
CN108769151A (zh) * 2018-05-15 2018-11-06 新华三技术有限公司 一种业务处理方法和装置
CN110677441A (zh) * 2018-07-02 2020-01-10 中国移动通信集团有限公司 一种对象存储集群的访问方法及装置
CN109271264A (zh) * 2018-08-30 2019-01-25 郑州云海信息技术有限公司 一种通信连接建立方法及装置
CN111078119A (zh) * 2018-10-18 2020-04-28 深信服科技股份有限公司 一种数据重建方法、系统、装置及计算机可读存储介质
CN111078119B (zh) * 2018-10-18 2024-02-23 深信服科技股份有限公司 一种数据重建方法、系统、装置及计算机可读存储介质
CN109491764A (zh) * 2018-11-20 2019-03-19 郑州云海信息技术有限公司 一种基于openstack的虚拟机故障管理方法
CN109840247A (zh) * 2018-12-18 2019-06-04 深圳先进技术研究院 文件系统及数据布局方法
CN109840247B (zh) * 2018-12-18 2020-12-18 深圳先进技术研究院 文件系统及数据布局方法
CN110347656A (zh) * 2019-06-27 2019-10-18 苏州浪潮智能科技有限公司 文件存储系统中请求的管理方法和装置
CN110519349A (zh) * 2019-08-15 2019-11-29 济南浪潮数据技术有限公司 一种基于DNS固定分配虚拟ip的负载均衡方法及装置
CN110519349B (zh) * 2019-08-15 2022-07-15 济南浪潮数据技术有限公司 一种基于DNS固定分配虚拟ip的负载均衡方法及装置
CN111770054A (zh) * 2020-05-28 2020-10-13 苏州浪潮智能科技有限公司 一种针对smb协议读请求的交互加速方法与系统
CN111767257A (zh) * 2020-06-28 2020-10-13 星辰天合(北京)数据科技有限公司 基于fuse文件系统和nfs协议的数据传输方法及装置
CN111767257B (zh) * 2020-06-28 2024-05-31 北京星辰天合科技股份有限公司 基于fuse文件系统和nfs协议的数据传输方法及装置
CN112437124A (zh) * 2020-11-09 2021-03-02 北京金山云网络技术有限公司 流量镜像请求的处理方法、装置及负载均衡服务器
CN112650727A (zh) * 2020-12-09 2021-04-13 湖南麒麟信安科技股份有限公司 一种面向网络存储系统的通用权限与配额管理系统与方法
CN112965790A (zh) * 2021-03-29 2021-06-15 华云数据控股集团有限公司 一种基于pxe协议的虚拟机启动方法及电子设备
CN115102972A (zh) * 2022-07-15 2022-09-23 济南浪潮数据技术有限公司 一种存储nfs文件的方法、装置、设备及介质

Also Published As

Publication number Publication date
CN107734026B (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
CN107734026A (zh) 一种网络附加存储集群的设计方法、装置及设备
US10956601B2 (en) Fully managed account level blob data encryption in a distributed storage environment
CN106294585B (zh) 一种云计算平台下的存储方法
US9128626B2 (en) Distributed virtual storage cloud architecture and a method thereof
US10558565B2 (en) Garbage collection implementing erasure coding
CN105025084B (zh) 一种基于同步代理和混合存储的云存储系统
US7836014B2 (en) Hybrid real-time data replication
US10659225B2 (en) Encrypting existing live unencrypted data using age-based garbage collection
CN103765406B (zh) 用于远程更新执行进程的方法和装置
CN103930879B (zh) 投影存储网关
CN103491144B (zh) 一种广域网虚拟平台的构建方法
US10922303B1 (en) Early detection of corrupt data partition exports
CN103748548A (zh) 存储网关激活过程
JP6293086B2 (ja) データシステムにおける受信器側データの重複排除
CN105868333A (zh) 文件处理方法及装置
KR20100094312A (ko) 파일관리 시스템 및 파일관리시스템의 컨텐츠 제공 방법
US20140280765A1 (en) Self-Organizing Disk (SoD)
US11704289B2 (en) Role reversal of primary and secondary sites with minimal replication delay
CN108063779A (zh) 一种云存储和本地存储实现同步的方法和系统
Eisler et al. Data ONTAP GX: A Scalable Storage Cluster.
US11656957B1 (en) Managing nodes of a DBMS
CN109831502A (zh) 新型网站云虚拟主机架构
Ward NoSQL database in the cloud: MongoDB on AWS
Cheng et al. A practical cross-datacenter fault-tolerance algorithm in the cloud storage system
Bolinches et al. IBM elastic storage server implementation guide for version 5.3

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200916

Address after: 215100 No. 1 Guanpu Road, Guoxiang Street, Wuzhong Economic Development Zone, Suzhou City, Jiangsu Province

Applicant after: SUZHOU LANGCHAO INTELLIGENT TECHNOLOGY Co.,Ltd.

Address before: 450018 Henan province Zheng Dong New District of Zhengzhou City Xinyi Road No. 278 16 floor room 1601

Applicant before: ZHENGZHOU YUNHAI INFORMATION TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant