CN108959045A - 一种nas集群故障切换性能的测试方法和系统 - Google Patents
一种nas集群故障切换性能的测试方法和系统 Download PDFInfo
- Publication number
- CN108959045A CN108959045A CN201810586733.6A CN201810586733A CN108959045A CN 108959045 A CN108959045 A CN 108959045A CN 201810586733 A CN201810586733 A CN 201810586733A CN 108959045 A CN108959045 A CN 108959045A
- Authority
- CN
- China
- Prior art keywords
- node
- nas
- failure
- handoffs
- host side
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3409—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
- G06F11/3414—Workload generation, e.g. scripts, playback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3466—Performance evaluation by tracing or monitoring
- G06F11/3485—Performance evaluation by tracing or monitoring for I/O devices
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Debugging And Monitoring (AREA)
Abstract
本申请公开了一种NAS集群故障切换性能的测试方法和系统,该方法包括:搭建统一存储系统的测试环境,在测试环境下模拟NAS集群单节点故障,根据预设的NAS集群故障切换性能标准,检测冗余节点是否能全部接管故障节点的业务并使主机端正常运行,当冗余节点是否能全部接管故障节点的业务并使主机端正常运行时。该系统包括测试环境搭建模块、故障模块、检测模块和判定模块。通过本申请中的方法和系统,能够涵盖常见的各种故障,有利于提高测试结果的可靠性。且本申请从NAS文件系统、域用户、共享性以及IO访问各方面综合考察NAS集群故障切换性能,有利于提高测试结果的准确性。
Description
技术领域
本申请涉及存储系统性能测试技术领域,特别是涉及一种NAS集群故障切换性能的测试方法和系统。
背景技术
随着存储技术的发展,存储系统逐渐增加新的功能,目前的网络存储系统除了常用的NAS(Network Attached Storage:网络附属存储)和SAN(Storage Area Network,存储区域网络),还包括统一存储系统。所谓统一存储系统,是一个能在单一设备上运行管理文件和应用程序的存储系统,统一存储系统在单一存储平台上整合基于文件和基于块的访问,支持基于光纤通道的SAN、基于IP的SAN和NAS。为确保统一存储系统的正常运行和使用,对统一存储系统下NAS集群的高可用性,尤其是统一存储系统中单节点故障切换时的可靠性进行验证,是个重要问题。
目前,由于现有的存储系统上只能单独配置SAN或单独配置NAS,对统一存储系统中NAS集群故障切换性能的测试方法,主要是分别验证SAN故障切换性能和NAS故障切换性能,然后将两个测试结果进行简单合并,来推测统一存储系统中NAS集群故障切换性能。
然而,目前的测试方法,由于其所获取的NAS集群故障切换性能测试结果,是根据SAN故障切换性能和NAS故障切换性能的测试结果简单合并,并不是同时将NAS和SAN两种功能集成后的测试,也就是说,目前的测试并不是针对统一存储系统而设定的,因此并不能准确地模拟NAS集群故障切换的状态,从而导致目前的测试方法下,其测试结果的可靠性和准确性不够高。
发明内容
本申请提供了一种NAS集群故障切换性能的测试方法和系统,以解决现有技术中的测试结果的可靠性和准确性不够高的问题。
为了解决上述技术问题,本申请实施例公开了如下技术方案:
一种NAS集群故障切换性能的测试方法,所述测试方法包括:
搭建统一存储系统的测试环境,所述统一存储系统包括:设置于存储端的冗余节点和故障节点;
在测试环境下模拟NAS集群单节点故障,所述NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;
根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,所述故障节点的业务包括NAS业务和SAN业务;
如果冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格。
可选地,所述预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。
可选地,根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行的方法,包括:
发生软件正常重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行;
发生节点掉电重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行;
发生节点异常宕机故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行。
可选地,所述搭建统一存储系统的测试环境的方法,包括:
根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license;
根据所获取的创建指令,分别在冗余节点和故障节点创建存储池,并在存储池中创建任一卷和任一NAS文件系统;
对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享;
通过fc,将冗余节点中的卷和故障节点中的卷映射到同一个主机端,在主机端利用iometer读写冗余节点中的卷和故障节点中的卷。
可选地,所述根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license的方法,包括:
根据灌装指令,在存储设备上灌装带有NAS功能的统一存储系统;
根据启动指令,利用license激活统一存储系统的NAS功能,并开启统一存储系统的cifs服务;
根据配置指令,在存储端配置NAS端口的IP。
可选地,对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享之前,所述方法还包括:
将故障节点和冗余节点添加到主机端所在的域中。
一种NAS集群故障切换性能的测试系统,所述测试系统包括:
测试环境搭建模块,用于搭建统一存储系统的测试环境,所述统一存储系统包括:设置于存储端的冗余节点和故障节点;
故障模块,用于在测试环境下模拟NAS集群单节点故障,所述NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;
检测模块,用于根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,所述故障节点的业务包括NAS业务和SAN业务;
判断模块,用于当冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格;否则判定NAS集群故障切换性能测试不合格。
可选地,所述预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。
可选地,所述检测模块包括:
NAS文件系统检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致;
域用户检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测域用户是否能够登录域;
共享性检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点和故障节点之间NAS文件是否可共享;
IO访问检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测主机端对存储端是否可进行IO访问。
本申请的实施例提供的技术方案可以包括以下有益效果:
本申请提供一种NAS集群故障切换性能的测试方法,该方法首先搭建统一存储系统的测试环境,其次在测试环境下模拟NAS集群单节点故障:软件正常重启故障、节点掉电重启故障或节点异常宕机故障,然后根据预设的NAS集群故障切换性能标准,检测冗余节点是否能全部接管故障节点的业务并使主机端正常运行,当冗余节点是否能全部接管故障节点的业务并使主机端正常运行时,判定NAS集群故障切换性能测试合格,否则判定NAS集群故障切换性能测试不合格。本申请所模拟的NAS集群单节点故障包括但不限于软件正常重启故障、节点掉电重启故障或节点异常宕机故障,能够涵盖常见的各种故障,有利于全面验证NAS集群故障切换性能,从而有利于提高测试结果的可靠性。另外,本申请中预设的NAS集群故障切换性能标准包括冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问,只有满足这些性能标准,才能判定冗余节点全部接管故障节点的业务,并使主机端正常运行,从而确定测试合格。这些性能标准从NAS文件系统、域用户、共享性以及IO访问各方面综合考察NAS集群故障切换性能,有利于提高测试结果的准确性。
本申请还提供一种NAS集群故障切换性能的测试系统,该系统包括测试环境搭建模块、故障模块、检测模块和判定模块。通过测试环境搭建模块创建统一存储系统的测试环境;通过故障模块在测试环境下模拟NAS集群单节点的软件正常重启故障、节点掉电重启故障或节点异常宕机故障;利用检测模块根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行;最后通过判断模块,根据冗余节点是否全部接管故障节点的业务,并使主机端正常运行,判断NAS集群故障切换性能是否测试合格。本申请中通过测试环境搭建模块,能够搭建如下的测试环境:在存储设备上灌装带有NAS功能的统一存储系统,并开启license;分别在冗余节点和故障节点创建存储池,并在存储池中创建任一卷和任一NAS文件系统;对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端能够访问cifs共享;通过fc将冗余节点中的卷和故障节点中的卷映射到同一个主机端,在主机端利用iometer读写冗余节点中的卷和故障节点中的卷。因此,采用本申请中的测试环境搭建模块所创建的测试环境能够确保后续模拟故障测试的顺利进行,有利于为测试判断提供较好的对比环境,因此,有利于提高测试的可靠性和准确性。另外,本申请所模拟的NAS集群单节点故障包括但不限于软件正常重启故障、节点掉电重启故障或节点异常宕机故障,能够涵盖常见的各种故障,有利于全面验证NAS集群故障切换性能,从而有利于提高测试结果的可靠性。此外,本申请中预设的NAS集群故障切换性能标准包括冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问,只有满足这些性能标准,才能判定冗余节点全部接管故障节点的业务,并使主机端正常运行,从而确定测试合格。这些性能标准从NAS文件系统、域用户、共享性以及IO访问各方面综合考察NAS集群故障切换性能,有利于提高测试结果的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例所提供的一种NAS集群故障切换性能的测试方法的流程示意图;
图2为本申请实施例所提供的一种NAS集群故障切换性能的测试系统的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
为了更好地理解本申请,下面结合附图来详细解释本申请的实施方式。
实施例一
参见图1,图1为本申请实施例所提供的一种NAS集群故障切换性能的测试方法的流程示意图。由图1可知,本申请中NAS集群故障切换性能的测试方法主要包括如下过程:
S1:搭建统一存储系统的测试环境。
其中,统一存储系统部署在存储端的冗余节点和故障节点上。本实施例中冗余节点和故障节点互为对端节点,需要针对每个节点分别进行NAS集群故障切换性能测试。
具体地,本申请中搭建统一存储系统的测试环境的方法,包括:
S11:根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license。
执行测试前,首先要在统一存储设备上灌装带有NAS功能的统一存储系统,也就是MCS(Multi Controller System,多控制器存储系统)软件系统,确保集群正常创建并能够正常使用,而无报错信息。
具体地,步骤S11又包括如下过程:
S111:根据灌装指令,在存储设备上灌装带有NAS功能的统一存储系统。
S112:根据启动指令,利用license激活统一存储系统的NAS功能,并开启统一存储系统的cifs服务。
可以采用统一存储系统中的命令来实现,例如可以采用如下脚本来实现:
mtinq lsservicenodes
panel_name cluster_id cluster_name node_id node_name relation nodestatus error_date
01-2 0000000035627034 Cluster_100.2.82.173 2 node2 local Active
01-1 0000000035627034 Cluster_100.2.82.173 1 node1 partner Active
S113:根据配置指令,在存储端配置NAS端口的IP。
由于本实施例中有两个节点:冗余节点和故障节点,此处需要对两个节点各配置一个IP。例如:配置node1节点port1端口的NAS服务IP 100.2.102.213,子网掩码255.255.255.0,网关100.2.102.1,可采用如下代码:
>cfgnasportip -node node1 -port 1 -ip 100.2.102.213 -mask255.255.255.0 -gw100.2.102.1。
S12:根据所获取的创建指令,分别在冗余节点和故障节点创建存储池,并在存储池中创建任一卷和任一NAS文件系统。
本实施例中,在冗余节点的存储池中所创建的卷以及在故障节点的存储池中所创建的卷,是为了进行SAN应用,所创建的卷称为普通卷。而分别在冗余节点和故障节点的存储池中所创建的NAS文件系统,为统一存储系统中所增加的功能,所创建的NAS文件系统可以理解为特殊的卷。
在存储端创建NAS文件系统的方法,如:在主节点palmnas1的存储池pool-lsl中,创建一个size大小为5000MB的文件系统fsname01,可以采用如下代码:
>addfs -name fsname01 -pool pool-lsl -size 5000 -node palmnas1。
S13:对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享。
本实施例中主机端可以采用一Linux服务器。本实施例采用域用户创建cifs共享,也就是采用域用户作为访问cifs共享的用户权限。cifs共享也称cifs共享驱动器,在主机端访问cifs共享,例如:在主机端向cifs共享驱动器中拷贝文件。需要注意的是,为验证模拟故障时,冗余节点所拷贝数据和故障节点数据的一致性,此处向cifs共享驱动器中所拷贝的文件大小,要确保拷贝文件的时长大于存储端执行故障操作的时长。为进一步方便地验证模拟故障时数据的一致性,优选采用一个大文件,而不是多个小文件,从而有利于中间拷贝操作不中断,进而提高测试结果的可靠性。
本实施例中对冗余节点和故障节点中的NAS文件系统创建cifs共享的方法为:添加共享路径为/fs/fssystem1/cifs1的cifs共享,可以采用如下代码:
>addcifs -name cifs_share1 -path/fs/fsystem1/cifs1 -oplocks off;
采用域用户作为访问cifs共享的用户权限的方法为:修改cifs_share1共享配置,用户administrator权限rw,可以采用如下代码:
>chcifsuser -name cifs_share1 -rights LU:administrator:rw。
S14:通过fc,将冗余节点中的卷和故障节点中的卷映射到同一个主机端,在主机端利用iometer读写冗余节点中的卷和故障节点中的卷。
通过步骤S11-S14,所搭建的测试环境,能够使主机端可正常访问cifs共享,且在主机端能够正常读写冗余节点和故障节点中的卷,从而能够确保后续模拟故障测试的顺利进行,有利于为测试判断提供较好的对比环境,因此,有利于提高测试的可靠性和准确性。
进一步地,步骤S13之前,本实施例中的测试方法还包括:将故障节点和冗余节点添加到主机端所在的域中。从而使当前的存储和主机端处于同一个域中,有利于后续执行模拟故障操作时,能够及时发现当前的存储,从而快速实现故障切换。
继续参见图1可知,搭建完毕测试环境后,执行步骤S2:在测试环境下模拟NAS集群单节点故障,其中NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障。
本实施例中模拟客户应用场景中可能出现的各种NAS集群单节点故障,包括但不限于软件正常重启故障、节点掉电重启故障或节点异常宕机故障。
具体地,使用MCS存储系统内部的mtop stopnode–reboot命令使单节点执行冷重启;mtop stopnode–warmstart命令使单节点执行热重启;采用mtop startservice–f命令使单节点设置为服务模式,服务模式也是常用的单节点故障修复模式;将配置节点拔出机框并等待5分钟后将其重新插入机框,从而模拟节点异常宕机故障。
模拟故障后,执行步骤S3:根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,其中故障节点的业务包括NAS业务和SAN业务。
本实施例中预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。只有同时满足这些性能标准,才能判定冗余节点全部接管故障节点的业务,并使主机端正常运行,从而确定测试合格。这些性能标准从NAS文件系统、域用户、共享性以及IO访问各方面综合考察NAS集群故障切换性能,有利于提高测试结果的准确性。
具体地,步骤S3包括如下过程:
S31:发生软件正常重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问。
S32:如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行。
否则,判定冗余节点不能全部接管故障节点的业务,并使主机端正常运行。
S33:发生节点掉电重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问。
S34:如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行。
否则,判定冗余节点不能全部接管故障节点的业务,并使主机端正常运行。
S35:发生节点异常宕机故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问。
S36:如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行。
否则,判定冗余节点不能全部接管故障节点的业务,并使主机端正常运行。
S4:如果冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格。
由以上步骤S3和S4可知,在模拟步骤S2中的各种故障的过程中,持续观察整个系统中冗余节点的状态,同时ssh进入NAS设置的ip,即:存储系统下的虚拟机ip,也就是本实施例中步骤S113中在存储端配置的NAS端口的IP,使用ctdb status工具检验重启节点完成后,统一存储系统是否恢复为正常的状态。其中,NAS为统一存储系统中内嵌的虚拟机,ssh进入NAS设置的ip,也就是ssh连接到NAS的ip。
在NAS集群中从冗余节点查看故障节点的状态变化,可以采用ctdb status命令来实现。
通过利用以上命令编写代码,验证冗余节点和故障节点的PNN(ProbabilisticNeural Networks,概率神经网络)状态是否为OK,OK。如果冗余节点和故障节点的PNN状态是否为OK,OK,表明两个节点之间可以互通,即有心跳信号,因此当统一存储系统中有一个节点进入故障状态后,该故障节点中的资源会成功地被冗余节点接管,从而确保主机端的SAN业务和NAS业务不中断,判定测试合格。
实施例二
在图1所示实施例的基础之上参见图2,图2为本申请实施例所提供的一种NAS集群故障切换性能的测试系统的结构示意图。由图2可知,本申请中NAS集群故障切换性能的测试系统主要包括测试环境搭建模块、故障模块、检测模块和判定模块四个部分。
其中,测试环境搭建模块用于搭建统一存储系统的测试环境,统一存储系统部署在存储端的冗余节点和故障节点上;故障模块用于在测试环境下模拟NAS集群单节点故障,其中NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;检测模块用于根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,其中故障节点的业务包括NAS业务和SAN业务;判断模块用于当冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格,否则判定NAS集群故障切换性能测试不合格。
本申请中预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。
进一步地,本实施例中检测模块包括:NAS文件系统检测单元、域用户检测单元、共享性检测单元和IO访问检测单元。NAS文件系统检测单元用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致;域用户检测单元用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测域用户是否能够登录域;共享性检测单元用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点和故障节点之间NAS文件是否可共享;IO访问检测单元用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测主机端对存储端是否可进行IO访问。
本实施例中NAS集群故障切换性能的测试系统的工作原理和工作方法,在图1所示的实施例中已经详细阐述,在此不再赘述。
以上所述仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种NAS集群故障切换性能的测试方法,其特征在于,所述测试方法包括:
搭建统一存储系统的测试环境,所述统一存储系统部署在存储端的冗余节点和故障节点上;
在测试环境下模拟NAS集群单节点故障,所述NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;
根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,所述故障节点的业务包括NAS业务和SAN业务;
如果冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格。
2.根据权利要求1所述的一种NAS集群故障切换性能的测试方法,其特征在于,所述预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。
3.根据权利要求2所述的一种NAS集群故障切换性能的测试方法,其特征在于,根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行的方法,包括:
发生软件正常重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行;
发生节点掉电重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行;
发生节点异常宕机故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行。
4.根据权利要求1-3中任一所述的一种NAS集群故障切换性能的测试方法,其特征在于,所述搭建统一存储系统的测试环境的方法,包括:
根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license;
根据所获取的创建指令,分别在冗余节点和故障节点创建存储池,并在存储池中创建任一卷和任一NAS文件系统;
对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享;
通过fc,将冗余节点中的卷和故障节点中的卷映射到同一个主机端,在主机端利用iometer读写冗余节点中的卷和故障节点中的卷。
5.根据权利要求4所述的一种NAS集群故障切换性能的测试方法,其特征在于,所述根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license的方法,包括:
根据灌装指令,在存储设备上灌装带有NAS功能的统一存储系统;
根据启动指令,利用license激活统一存储系统的NAS功能,并开启统一存储系统的cifs服务;
根据配置指令,在存储端配置NAS端口的IP。
6.根据权利要求4所述的一种NAS集群故障切换性能的测试方法,其特征在于,对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享之前,所述方法还包括:
将故障节点和冗余节点添加到主机端所在的域中。
7.一种NAS集群故障切换性能的测试系统,其特征在于,所述测试系统包括:
测试环境搭建模块,用于搭建统一存储系统的测试环境,所述统一存储系统部署在存储端的冗余节点和故障节点上;
故障模块,用于在测试环境下模拟NAS集群单节点故障,所述NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;
检测模块,用于根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,所述故障节点的业务包括NAS业务和SAN业务;
判断模块,用于当冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格;否则判定NAS集群故障切换性能测试不合格。
8.根据权利要求7所述的一种NAS集群故障切换性能的测试系统,其特征在于,所述预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。
9.根据权利要求8所述的一种NAS集群故障切换性能的测试系统,其特征在于,所述检测模块包括:
NAS文件系统检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致;
域用户检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测域用户是否能够登录域;
共享性检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点和故障节点之间NAS文件是否可共享;
IO访问检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测主机端对存储端是否可进行IO访问。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810586733.6A CN108959045B (zh) | 2018-06-08 | 2018-06-08 | 一种nas集群故障切换性能的测试方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810586733.6A CN108959045B (zh) | 2018-06-08 | 2018-06-08 | 一种nas集群故障切换性能的测试方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108959045A true CN108959045A (zh) | 2018-12-07 |
CN108959045B CN108959045B (zh) | 2021-11-09 |
Family
ID=64493894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810586733.6A Active CN108959045B (zh) | 2018-06-08 | 2018-06-08 | 一种nas集群故障切换性能的测试方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108959045B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188015A (zh) * | 2019-04-04 | 2019-08-30 | 北京升鑫网络科技有限公司 | 一种主机访问关系异常行为自适应检测装置及其监测方法 |
CN110557449A (zh) * | 2019-08-30 | 2019-12-10 | 苏州浪潮智能科技有限公司 | 一种NAS分布式存储阵列与VMware互认证测试系统、方法及设备 |
CN111324524A (zh) * | 2018-12-14 | 2020-06-23 | 北京奇虎科技有限公司 | 一种广告的稳定性测试方法及装置 |
CN111813348A (zh) * | 2020-09-08 | 2020-10-23 | 苏州浪潮智能科技有限公司 | 统一存储设备中的节点事件处理装置、方法、设备及介质 |
CN111831511A (zh) * | 2020-07-15 | 2020-10-27 | 北京思特奇信息技术股份有限公司 | 一种云服务的业务主机的检测处理方法、装置及介质 |
CN111966469A (zh) * | 2020-09-04 | 2020-11-20 | 苏州浪潮智能科技有限公司 | 一种集群虚拟机高可用方法及系统 |
CN112380083A (zh) * | 2020-10-23 | 2021-02-19 | 浪潮电子信息产业股份有限公司 | 一种bmc主备切换稳定性测试方法和系统 |
CN114780442A (zh) * | 2022-06-22 | 2022-07-22 | 杭州悦数科技有限公司 | 分布式系统的测试方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1848064A (zh) * | 2005-04-13 | 2006-10-18 | 株式会社日立制作所 | 磁盘阵列装置以及其控制方法 |
CN102571904A (zh) * | 2011-10-11 | 2012-07-11 | 浪潮电子信息产业股份有限公司 | 一种模块化设计的nas集群系统构建方法 |
US20150347266A1 (en) * | 2014-05-30 | 2015-12-03 | Vmware, Inc. | Analyzing I/O Traces |
CN105553783A (zh) * | 2016-01-25 | 2016-05-04 | 北京同有飞骥科技股份有限公司 | 一种配置双机资源切换的自动化测试方法 |
-
2018
- 2018-06-08 CN CN201810586733.6A patent/CN108959045B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1848064A (zh) * | 2005-04-13 | 2006-10-18 | 株式会社日立制作所 | 磁盘阵列装置以及其控制方法 |
CN102571904A (zh) * | 2011-10-11 | 2012-07-11 | 浪潮电子信息产业股份有限公司 | 一种模块化设计的nas集群系统构建方法 |
US20150347266A1 (en) * | 2014-05-30 | 2015-12-03 | Vmware, Inc. | Analyzing I/O Traces |
CN105553783A (zh) * | 2016-01-25 | 2016-05-04 | 北京同有飞骥科技股份有限公司 | 一种配置双机资源切换的自动化测试方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111324524A (zh) * | 2018-12-14 | 2020-06-23 | 北京奇虎科技有限公司 | 一种广告的稳定性测试方法及装置 |
CN110188015A (zh) * | 2019-04-04 | 2019-08-30 | 北京升鑫网络科技有限公司 | 一种主机访问关系异常行为自适应检测装置及其监测方法 |
CN110188015B (zh) * | 2019-04-04 | 2021-09-07 | 北京升鑫网络科技有限公司 | 一种主机访问关系异常行为自适应检测装置及其监测方法 |
CN110557449A (zh) * | 2019-08-30 | 2019-12-10 | 苏州浪潮智能科技有限公司 | 一种NAS分布式存储阵列与VMware互认证测试系统、方法及设备 |
CN111831511A (zh) * | 2020-07-15 | 2020-10-27 | 北京思特奇信息技术股份有限公司 | 一种云服务的业务主机的检测处理方法、装置及介质 |
CN111966469A (zh) * | 2020-09-04 | 2020-11-20 | 苏州浪潮智能科技有限公司 | 一种集群虚拟机高可用方法及系统 |
CN111966469B (zh) * | 2020-09-04 | 2022-07-19 | 苏州浪潮智能科技有限公司 | 一种集群虚拟机高可用方法及系统 |
CN111813348A (zh) * | 2020-09-08 | 2020-10-23 | 苏州浪潮智能科技有限公司 | 统一存储设备中的节点事件处理装置、方法、设备及介质 |
CN112380083A (zh) * | 2020-10-23 | 2021-02-19 | 浪潮电子信息产业股份有限公司 | 一种bmc主备切换稳定性测试方法和系统 |
CN112380083B (zh) * | 2020-10-23 | 2023-01-06 | 浪潮电子信息产业股份有限公司 | 一种bmc主备切换稳定性测试方法和系统 |
CN114780442A (zh) * | 2022-06-22 | 2022-07-22 | 杭州悦数科技有限公司 | 分布式系统的测试方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108959045B (zh) | 2021-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108959045A (zh) | 一种nas集群故障切换性能的测试方法和系统 | |
US11868323B2 (en) | Orchestrated disaster recovery | |
CN105511805B (zh) | 集群文件系统的数据处理方法和装置 | |
US10999208B2 (en) | Handling path issues for storage copy services | |
US8661286B2 (en) | QProcessor architecture in a cluster configuration | |
JP4457184B2 (ja) | ストレージシステムにおけるフェイルオーバー処理 | |
US8843624B2 (en) | Computer cluster and method for providing a disaster recovery functionality for a computer cluster | |
US9817721B1 (en) | High availability management techniques for cluster resources | |
US8832498B1 (en) | Scalable codebook correlation for cloud scale topology | |
CN104503965B (zh) | PostgreSQL高弹性的高可用及负载均衡实现方法 | |
US9092395B2 (en) | Provide an appliance like test vehicle for IT disaster recovery | |
US8387013B2 (en) | Method, apparatus, and computer product for managing operation | |
US9736046B1 (en) | Path analytics using codebook correlation | |
US20140114644A1 (en) | Method and apparatus for simulated failover testing | |
US7937481B1 (en) | System and methods for enterprise path management | |
CN113849136B (zh) | 一种基于国产平台的自动化fc块存储处理方法和系统 | |
US11341032B1 (en) | Testing in a disaster recovery computer system | |
CN105095103A (zh) | 用于云环境下的存储设备管理方法和装置 | |
CN114600088A (zh) | 使用基板管理控制器的服务器状态监测系统和方法 | |
CN110908723A (zh) | 操作系统的主备切换方法、装置及相关设备 | |
CN107181626B (zh) | 分布式存储集群系统网络带宽监测方法及系统 | |
US10552282B2 (en) | On demand monitoring mechanism to identify root cause of operation problems | |
US11044148B2 (en) | Optimistic and failsafe network configuration | |
CN108234482A (zh) | 一种无中断灾难恢复测试的自动网络隔离方法及系统 | |
EP3884648B1 (en) | Geo-replicated iot hub |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |