CN108959045B - 一种nas集群故障切换性能的测试方法和系统 - Google Patents

一种nas集群故障切换性能的测试方法和系统 Download PDF

Info

Publication number
CN108959045B
CN108959045B CN201810586733.6A CN201810586733A CN108959045B CN 108959045 B CN108959045 B CN 108959045B CN 201810586733 A CN201810586733 A CN 201810586733A CN 108959045 B CN108959045 B CN 108959045B
Authority
CN
China
Prior art keywords
node
fault
nas
redundant
file system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810586733.6A
Other languages
English (en)
Other versions
CN108959045A (zh
Inventor
张超凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou Yunhai Information Technology Co Ltd
Original Assignee
Zhengzhou Yunhai Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Yunhai Information Technology Co Ltd filed Critical Zhengzhou Yunhai Information Technology Co Ltd
Priority to CN201810586733.6A priority Critical patent/CN108959045B/zh
Publication of CN108959045A publication Critical patent/CN108959045A/zh
Application granted granted Critical
Publication of CN108959045B publication Critical patent/CN108959045B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3414Workload generation, e.g. scripts, playback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3485Performance evaluation by tracing or monitoring for I/O devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种NAS集群故障切换性能的测试方法和系统,该方法包括:搭建统一存储系统的测试环境,在测试环境下模拟NAS集群单节点故障,根据预设的NAS集群故障切换性能标准,检测冗余节点是否能全部接管故障节点的业务并使主机端正常运行,当冗余节点是否能全部接管故障节点的业务并使主机端正常运行时。该系统包括测试环境搭建模块、故障模块、检测模块和判定模块。通过本申请中的方法和系统,能够涵盖常见的各种故障,有利于提高测试结果的可靠性。且本申请从NAS文件系统、域用户、共享性以及IO访问各方面综合考察NAS集群故障切换性能,有利于提高测试结果的准确性。

Description

一种NAS集群故障切换性能的测试方法和系统
技术领域
本申请涉及存储系统性能测试技术领域,特别是涉及一种NAS集群故障切换性能的测试方法和系统。
背景技术
随着存储技术的发展,存储系统逐渐增加新的功能,目前的网络存储系统除了常用的NAS(Network Attached Storage:网络附属存储)和SAN(Storage Area Network,存储区域网络),还包括统一存储系统。所谓统一存储系统,是一个能在单一设备上运行管理文件和应用程序的存储系统,统一存储系统在单一存储平台上整合基于文件和基于块的访问,支持基于光纤通道的SAN、基于IP的SAN和NAS。为确保统一存储系统的正常运行和使用,对统一存储系统下NAS集群的高可用性,尤其是统一存储系统中单节点故障切换时的可靠性进行验证,是个重要问题。
目前,由于现有的存储系统上只能单独配置SAN或单独配置NAS,对统一存储系统中NAS集群故障切换性能的测试方法,主要是分别验证SAN故障切换性能和NAS故障切换性能,然后将两个测试结果进行简单合并,来推测统一存储系统中NAS集群故障切换性能。
然而,目前的测试方法,由于其所获取的NAS集群故障切换性能测试结果,是根据SAN故障切换性能和NAS故障切换性能的测试结果简单合并,并不是同时将NAS和SAN两种功能集成后的测试,也就是说,目前的测试并不是针对统一存储系统而设定的,因此并不能准确地模拟NAS集群故障切换的状态,从而导致目前的测试方法下,其测试结果的可靠性和准确性不够高。
发明内容
本申请提供了一种NAS集群故障切换性能的测试方法和系统,以解决现有技术中的测试结果的可靠性和准确性不够高的问题。
为了解决上述技术问题,本申请实施例公开了如下技术方案:
一种NAS集群故障切换性能的测试方法,所述测试方法包括:
搭建统一存储系统的测试环境,所述统一存储系统包括:设置于存储端的冗余节点和故障节点;
在测试环境下模拟NAS集群单节点故障,所述NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;
根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,所述故障节点的业务包括NAS业务和SAN业务;
如果冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格。
可选地,所述预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。
可选地,根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行的方法,包括:
发生软件正常重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行;
发生节点掉电重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行;
发生节点异常宕机故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行。
可选地,所述搭建统一存储系统的测试环境的方法,包括:
根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license;
根据所获取的创建指令,分别在冗余节点和故障节点创建存储池,并在存储池中创建任一卷和任一NAS文件系统;
对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享;
通过fc,将冗余节点中的卷和故障节点中的卷映射到同一个主机端,在主机端利用iometer读写冗余节点中的卷和故障节点中的卷。
可选地,所述根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license的方法,包括:
根据灌装指令,在存储设备上灌装带有NAS功能的统一存储系统;
根据启动指令,利用license激活统一存储系统的NAS功能,并开启统一存储系统的cifs服务;
根据配置指令,在存储端配置NAS端口的IP。
可选地,对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享之前,所述方法还包括:
将故障节点和冗余节点添加到主机端所在的域中。
一种NAS集群故障切换性能的测试系统,所述测试系统包括:
测试环境搭建模块,用于搭建统一存储系统的测试环境,所述统一存储系统包括:设置于存储端的冗余节点和故障节点;
故障模块,用于在测试环境下模拟NAS集群单节点故障,所述NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;
检测模块,用于根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,所述故障节点的业务包括NAS业务和SAN业务;
判断模块,用于当冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格;否则判定NAS集群故障切换性能测试不合格。
可选地,所述预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。
可选地,所述检测模块包括:
NAS文件系统检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致;
域用户检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测域用户是否能够登录域;
共享性检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点和故障节点之间NAS文件是否可共享;
IO访问检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测主机端对存储端是否可进行IO访问。
本申请的实施例提供的技术方案可以包括以下有益效果:
本申请提供一种NAS集群故障切换性能的测试方法,该方法首先搭建统一存储系统的测试环境,其次在测试环境下模拟NAS集群单节点故障:软件正常重启故障、节点掉电重启故障或节点异常宕机故障,然后根据预设的NAS集群故障切换性能标准,检测冗余节点是否能全部接管故障节点的业务并使主机端正常运行,当冗余节点是否能全部接管故障节点的业务并使主机端正常运行时,判定NAS集群故障切换性能测试合格,否则判定NAS集群故障切换性能测试不合格。本申请所模拟的NAS集群单节点故障包括但不限于软件正常重启故障、节点掉电重启故障或节点异常宕机故障,能够涵盖常见的各种故障,有利于全面验证NAS集群故障切换性能,从而有利于提高测试结果的可靠性。另外,本申请中预设的NAS集群故障切换性能标准包括冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问,只有满足这些性能标准,才能判定冗余节点全部接管故障节点的业务,并使主机端正常运行,从而确定测试合格。这些性能标准从NAS文件系统、域用户、共享性以及IO访问各方面综合考察NAS集群故障切换性能,有利于提高测试结果的准确性。
本申请还提供一种NAS集群故障切换性能的测试系统,该系统包括测试环境搭建模块、故障模块、检测模块和判定模块。通过测试环境搭建模块创建统一存储系统的测试环境;通过故障模块在测试环境下模拟NAS集群单节点的软件正常重启故障、节点掉电重启故障或节点异常宕机故障;利用检测模块根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行;最后通过判断模块,根据冗余节点是否全部接管故障节点的业务,并使主机端正常运行,判断NAS集群故障切换性能是否测试合格。本申请中通过测试环境搭建模块,能够搭建如下的测试环境:在存储设备上灌装带有NAS功能的统一存储系统,并开启license;分别在冗余节点和故障节点创建存储池,并在存储池中创建任一卷和任一NAS文件系统;对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端能够访问cifs共享;通过fc将冗余节点中的卷和故障节点中的卷映射到同一个主机端,在主机端利用iometer读写冗余节点中的卷和故障节点中的卷。因此,采用本申请中的测试环境搭建模块所创建的测试环境能够确保后续模拟故障测试的顺利进行,有利于为测试判断提供较好的对比环境,因此,有利于提高测试的可靠性和准确性。另外,本申请所模拟的NAS集群单节点故障包括但不限于软件正常重启故障、节点掉电重启故障或节点异常宕机故障,能够涵盖常见的各种故障,有利于全面验证NAS集群故障切换性能,从而有利于提高测试结果的可靠性。此外,本申请中预设的NAS集群故障切换性能标准包括冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问,只有满足这些性能标准,才能判定冗余节点全部接管故障节点的业务,并使主机端正常运行,从而确定测试合格。这些性能标准从NAS文件系统、域用户、共享性以及IO访问各方面综合考察NAS集群故障切换性能,有利于提高测试结果的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例所提供的一种NAS集群故障切换性能的测试方法的流程示意图;
图2为本申请实施例所提供的一种NAS集群故障切换性能的测试系统的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
为了更好地理解本申请,下面结合附图来详细解释本申请的实施方式。
实施例一
参见图1,图1为本申请实施例所提供的一种NAS集群故障切换性能的测试方法的流程示意图。由图1可知,本申请中NAS集群故障切换性能的测试方法主要包括如下过程:
S1:搭建统一存储系统的测试环境。
其中,统一存储系统部署在存储端的冗余节点和故障节点上。本实施例中冗余节点和故障节点互为对端节点,需要针对每个节点分别进行NAS集群故障切换性能测试。
具体地,本申请中搭建统一存储系统的测试环境的方法,包括:
S11:根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license。
执行测试前,首先要在统一存储设备上灌装带有NAS功能的统一存储系统,也就是MCS(Multi Controller System,多控制器存储系统)软件系统,确保集群正常创建并能够正常使用,而无报错信息。
具体地,步骤S11又包括如下过程:
S111:根据灌装指令,在存储设备上灌装带有NAS功能的统一存储系统。
S112:根据启动指令,利用license激活统一存储系统的NAS功能,并开启统一存储系统的cifs服务。
可以采用统一存储系统中的命令来实现,例如可以采用如下脚本来实现:
mtinq lsservicenodes
panel_name cluster_id cluster_name node_id node_name relation nodestatus error_date
01-2 0000000035627034 Cluster_100.2.82.173 2 node2 local Active
01-1 0000000035627034 Cluster_100.2.82.173 1 node1 partner Active
S113:根据配置指令,在存储端配置NAS端口的IP。
由于本实施例中有两个节点:冗余节点和故障节点,此处需要对两个节点各配置一个IP。例如:配置node1节点port1端口的NAS服务IP 100.2.102.213,子网掩码255.255.255.0,网关100.2.102.1,可采用如下代码:
>cfgnasportip -node node1 -port 1 -ip 100.2.102.213 -mask255.255.255.0 -gw100.2.102.1。
S12:根据所获取的创建指令,分别在冗余节点和故障节点创建存储池,并在存储池中创建任一卷和任一NAS文件系统。
本实施例中,在冗余节点的存储池中所创建的卷以及在故障节点的存储池中所创建的卷,是为了进行SAN应用,所创建的卷称为普通卷。而分别在冗余节点和故障节点的存储池中所创建的NAS文件系统,为统一存储系统中所增加的功能,所创建的NAS文件系统可以理解为特殊的卷。
在存储端创建NAS文件系统的方法,如:在主节点palmnas1的存储池pool-lsl中,创建一个size大小为5000MB的文件系统fsname01,可以采用如下代码:
>addfs -name fsname01 -pool pool-lsl -size 5000 -node palmnas1。
S13:对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享。
本实施例中主机端可以采用一Linux服务器。本实施例采用域用户创建cifs共享,也就是采用域用户作为访问cifs共享的用户权限。cifs共享也称cifs共享驱动器,在主机端访问cifs共享,例如:在主机端向cifs共享驱动器中拷贝文件。需要注意的是,为验证模拟故障时,冗余节点所拷贝数据和故障节点数据的一致性,此处向cifs共享驱动器中所拷贝的文件大小,要确保拷贝文件的时长大于存储端执行故障操作的时长。为进一步方便地验证模拟故障时数据的一致性,优选采用一个大文件,而不是多个小文件,从而有利于中间拷贝操作不中断,进而提高测试结果的可靠性。
本实施例中对冗余节点和故障节点中的NAS文件系统创建cifs共享的方法为:添加共享路径为/fs/fssystem1/cifs1的cifs共享,可以采用如下代码:
>addcifs -name cifs_share1 -path/fs/fsystem1/cifs1 -oplocks off;
采用域用户作为访问cifs共享的用户权限的方法为:修改cifs_share1共享配置,用户administrator权限rw,可以采用如下代码:
>chcifsuser -name cifs_share1 -rights LU:administrator:rw。
S14:通过fc,将冗余节点中的卷和故障节点中的卷映射到同一个主机端,在主机端利用iometer读写冗余节点中的卷和故障节点中的卷。
通过步骤S11-S14,所搭建的测试环境,能够使主机端可正常访问cifs共享,且在主机端能够正常读写冗余节点和故障节点中的卷,从而能够确保后续模拟故障测试的顺利进行,有利于为测试判断提供较好的对比环境,因此,有利于提高测试的可靠性和准确性。
进一步地,步骤S13之前,本实施例中的测试方法还包括:将故障节点和冗余节点添加到主机端所在的域中。从而使当前的存储和主机端处于同一个域中,有利于后续执行模拟故障操作时,能够及时发现当前的存储,从而快速实现故障切换。
继续参见图1可知,搭建完毕测试环境后,执行步骤S2:在测试环境下模拟NAS集群单节点故障,其中NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障。
本实施例中模拟客户应用场景中可能出现的各种NAS集群单节点故障,包括但不限于软件正常重启故障、节点掉电重启故障或节点异常宕机故障。
具体地,使用MCS存储系统内部的mtop stopnode–reboot命令使单节点执行冷重启;mtop stopnode–warmstart命令使单节点执行热重启;采用mtop startservice–f命令使单节点设置为服务模式,服务模式也是常用的单节点故障修复模式;将配置节点拔出机框并等待5分钟后将其重新插入机框,从而模拟节点异常宕机故障。
模拟故障后,执行步骤S3:根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,其中故障节点的业务包括NAS业务和SAN业务。
本实施例中预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。只有同时满足这些性能标准,才能判定冗余节点全部接管故障节点的业务,并使主机端正常运行,从而确定测试合格。这些性能标准从NAS文件系统、域用户、共享性以及IO访问各方面综合考察NAS集群故障切换性能,有利于提高测试结果的准确性。
具体地,步骤S3包括如下过程:
S31:发生软件正常重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问。
S32:如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行。
否则,判定冗余节点不能全部接管故障节点的业务,并使主机端正常运行。
S33:发生节点掉电重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问。
S34:如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行。
否则,判定冗余节点不能全部接管故障节点的业务,并使主机端正常运行。
S35:发生节点异常宕机故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问。
S36:如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行。
否则,判定冗余节点不能全部接管故障节点的业务,并使主机端正常运行。
S4:如果冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格。
由以上步骤S3和S4可知,在模拟步骤S2中的各种故障的过程中,持续观察整个系统中冗余节点的状态,同时ssh进入NAS设置的ip,即:存储系统下的虚拟机ip,也就是本实施例中步骤S113中在存储端配置的NAS端口的IP,使用ctdb status工具检验重启节点完成后,统一存储系统是否恢复为正常的状态。其中,NAS为统一存储系统中内嵌的虚拟机,ssh进入NAS设置的ip,也就是ssh连接到NAS的ip。
在NAS集群中从冗余节点查看故障节点的状态变化,可以采用ctdb status命令来实现。
通过利用以上命令编写代码,验证冗余节点和故障节点的PNN(ProbabilisticNeural Networks,概率神经网络)状态是否为OK,OK。如果冗余节点和故障节点的PNN状态是否为OK,OK,表明两个节点之间可以互通,即有心跳信号,因此当统一存储系统中有一个节点进入故障状态后,该故障节点中的资源会成功地被冗余节点接管,从而确保主机端的SAN业务和NAS业务不中断,判定测试合格。
实施例二
在图1所示实施例的基础之上参见图2,图2为本申请实施例所提供的一种NAS集群故障切换性能的测试系统的结构示意图。由图2可知,本申请中NAS集群故障切换性能的测试系统主要包括测试环境搭建模块、故障模块、检测模块和判定模块四个部分。
其中,测试环境搭建模块用于搭建统一存储系统的测试环境,统一存储系统部署在存储端的冗余节点和故障节点上;故障模块用于在测试环境下模拟NAS集群单节点故障,其中NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;检测模块用于根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,其中故障节点的业务包括NAS业务和SAN业务;判断模块用于当冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格,否则判定NAS集群故障切换性能测试不合格。
本申请中预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问。
进一步地,本实施例中检测模块包括:NAS文件系统检测单元、域用户检测单元、共享性检测单元和IO访问检测单元。NAS文件系统检测单元用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致;域用户检测单元用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测域用户是否能够登录域;共享性检测单元用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点和故障节点之间NAS文件是否可共享;IO访问检测单元用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测主机端对存储端是否可进行IO访问。
本实施例中NAS集群故障切换性能的测试系统的工作原理和工作方法,在图1所示的实施例中已经详细阐述,在此不再赘述。
以上所述仅是本申请的具体实施方式,使本领域技术人员能够理解或实现本申请。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (3)

1.一种NAS集群故障切换性能的测试方法,其特征在于,所述测试方法包括:
搭建统一存储系统的测试环境,所述统一存储系统部署在存储端的冗余节点和故障节点上;
在测试环境下模拟NAS集群单节点故障,所述NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;
根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,所述故障节点的业务包括NAS业务和SAN业务,所述预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问;
如果冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格;
其中,根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行的方法,包括:
发生软件正常重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行;
发生节点掉电重启故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行;
发生节点异常宕机故障时,判断冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致、域用户是否能够登录域、冗余节点和故障节点之间NAS文件是否可共享,且主机端对存储端是否可进行IO访问;
如果是,判定冗余节点全部接管故障节点的业务,并使主机端正常运行;
其中,所述搭建统一存储系统的测试环境的方法,包括:
根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license;
根据所获取的创建指令,分别在冗余节点和故障节点创建存储池,并在存储池中创建任一卷和任一NAS文件系统;
对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享;
通过fc,将冗余节点中的卷和故障节点中的卷映射到同一个主机端,在主机端利用iometer读写冗余节点中的卷和故障节点中的卷;
对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享之前,所述方法还包括:
将故障节点和冗余节点添加到主机端所在的域中。
2.根据权利要求1所述的一种NAS集群故障切换性能的测试方法,其特征在于,所述根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license的方法,包括:
根据灌装指令,在存储设备上灌装带有NAS功能的统一存储系统;
根据启动指令,利用license激活统一存储系统的NAS功能,并开启统一存储系统的cifs服务;
根据配置指令,在存储端配置NAS端口的IP。
3.一种NAS集群故障切换性能的测试系统,其特征在于,所述测试系统包括:
测试环境搭建模块,用于搭建统一存储系统的测试环境,所述统一存储系统部署在存储端的冗余节点和故障节点上;
故障模块,用于在测试环境下模拟NAS集群单节点故障,所述NAS集群单节点故障包括:软件正常重启故障、节点掉电重启故障或节点异常宕机故障;
检测模块,用于根据预设的NAS集群故障切换性能标准,检测冗余节点是否全部接管故障节点的业务,并使主机端正常运行,所述故障节点的业务包括NAS业务和SAN业务,所述预设的NAS集群故障切换性能标准包括:冗余节点所备份的NAS文件系统与故障节点的NAS文件系统一致、域用户能够登录域、冗余节点和故障节点之间NAS文件可共享,以及主机端对存储端可进行IO访问;
判断模块,用于当冗余节点全部接管故障节点的业务,并使主机端正常运行,判定NAS集群故障切换性能测试合格;否则判定NAS集群故障切换性能测试不合格;
其中,所述检测模块包括:
NAS文件系统检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点所备份的NAS文件系统与故障节点的NAS文件系统是否一致;
域用户检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测域用户是否能够登录域;
共享性检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测冗余节点和故障节点之间NAS文件是否可共享;
IO访问检测单元,用于发生软件正常重启故障、节点掉电重启故障或节点异常宕机故障时,检测主机端对存储端是否可进行IO访问;
所述测试环境搭建模块,用于根据所获取的安装指令,在存储设备上灌装带有NAS功能的统一存储系统,并开启license;
根据所获取的创建指令,分别在冗余节点和故障节点创建存储池,并在存储池中创建任一卷和任一NAS文件系统;
对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享;
通过fc,将冗余节点中的卷和故障节点中的卷映射到同一个主机端,在主机端利用iometer读写冗余节点中的卷和故障节点中的卷;
对冗余节点中的NAS文件系统和故障节点中的NAS文件系统创建cifs共享,在主机端访问cifs共享之前,还包括:
将故障节点和冗余节点添加到主机端所在的域中。
CN201810586733.6A 2018-06-08 2018-06-08 一种nas集群故障切换性能的测试方法和系统 Active CN108959045B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810586733.6A CN108959045B (zh) 2018-06-08 2018-06-08 一种nas集群故障切换性能的测试方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810586733.6A CN108959045B (zh) 2018-06-08 2018-06-08 一种nas集群故障切换性能的测试方法和系统

Publications (2)

Publication Number Publication Date
CN108959045A CN108959045A (zh) 2018-12-07
CN108959045B true CN108959045B (zh) 2021-11-09

Family

ID=64493894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810586733.6A Active CN108959045B (zh) 2018-06-08 2018-06-08 一种nas集群故障切换性能的测试方法和系统

Country Status (1)

Country Link
CN (1) CN108959045B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111324524B (zh) * 2018-12-14 2024-06-21 北京奇虎科技有限公司 一种广告的稳定性测试方法及装置
CN110188015B (zh) * 2019-04-04 2021-09-07 北京升鑫网络科技有限公司 一种主机访问关系异常行为自适应检测装置及其监测方法
CN110557449A (zh) * 2019-08-30 2019-12-10 苏州浪潮智能科技有限公司 一种NAS分布式存储阵列与VMware互认证测试系统、方法及设备
CN111831511A (zh) * 2020-07-15 2020-10-27 北京思特奇信息技术股份有限公司 一种云服务的业务主机的检测处理方法、装置及介质
CN111966469B (zh) * 2020-09-04 2022-07-19 苏州浪潮智能科技有限公司 一种集群虚拟机高可用方法及系统
CN111813348A (zh) * 2020-09-08 2020-10-23 苏州浪潮智能科技有限公司 统一存储设备中的节点事件处理装置、方法、设备及介质
CN112380083B (zh) * 2020-10-23 2023-01-06 浪潮电子信息产业股份有限公司 一种bmc主备切换稳定性测试方法和系统
CN114780442A (zh) * 2022-06-22 2022-07-22 杭州悦数科技有限公司 分布式系统的测试方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1848064A (zh) * 2005-04-13 2006-10-18 株式会社日立制作所 磁盘阵列装置以及其控制方法
CN102571904A (zh) * 2011-10-11 2012-07-11 浪潮电子信息产业股份有限公司 一种模块化设计的nas集群系统构建方法
CN105553783A (zh) * 2016-01-25 2016-05-04 北京同有飞骥科技股份有限公司 一种配置双机资源切换的自动化测试方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9424162B2 (en) * 2014-05-30 2016-08-23 Vmware, Inc. Analyzing I/O traces

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1848064A (zh) * 2005-04-13 2006-10-18 株式会社日立制作所 磁盘阵列装置以及其控制方法
CN102571904A (zh) * 2011-10-11 2012-07-11 浪潮电子信息产业股份有限公司 一种模块化设计的nas集群系统构建方法
CN105553783A (zh) * 2016-01-25 2016-05-04 北京同有飞骥科技股份有限公司 一种配置双机资源切换的自动化测试方法

Also Published As

Publication number Publication date
CN108959045A (zh) 2018-12-07

Similar Documents

Publication Publication Date Title
CN108959045B (zh) 一种nas集群故障切换性能的测试方法和系统
US9282021B2 (en) Method and apparatus for simulated failover testing
US9396200B2 (en) Auto-snapshot manager analysis tool
US7971094B1 (en) Method, system and apparatus for creating and executing a failover plan on a computer network
EP2951963B1 (en) Failover in response to failure of a port
CN108710673B (zh) 实现数据库高可用方法、系统、计算机设备和存储介质
US9146839B2 (en) Method for pre-testing software compatibility and system thereof
CN103455352B (zh) 部署应用软件的方法及应用软件部署装置
US20130132765A1 (en) Mechanism to Provide Assured Recovery for Distributed Application
US9798606B2 (en) Systems and methods for smart diagnosis using hosted resources with intelligent altering of boot order
CN109587331B (zh) 云手机故障自动修复的方法与系统
CN108984349B (zh) 主节点选举方法及装置、介质和计算设备
US9582389B2 (en) Automated verification of appliance procedures
CN107506295B (zh) 虚拟机备份的测试方法、设备及计算机可读存储介质
US20240118884A1 (en) Automated deployment method for upgrading client's internal business software systems
CN105049284A (zh) 一种基于Linux系统的网络冗余测试方法及装置
US11044148B2 (en) Optimistic and failsafe network configuration
US11543973B2 (en) Techniques for software recovery and restoration
CN110287066B (zh) 一种服务器分区迁移方法及相关装置
CN114546427A (zh) 一种基于DNS和MGR的MySQL高可用实现方法
CN114546589A (zh) 双活容灾系统恢复点目标验证方法、装置和设备
US9584131B2 (en) Programmable device, information processing device, and control method for processing circuit of programmable device
CN107783855B (zh) 虚拟网元的故障自愈控制装置及方法
CN114048057A (zh) 超融合系统的测试方法及装置、存储介质
CN113688017B (zh) 多节点BeeGFS文件系统自动化异常测试方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant