CN109391691A - 一种单节点故障下nas服务的恢复方法及相关装置 - Google Patents

一种单节点故障下nas服务的恢复方法及相关装置 Download PDF

Info

Publication number
CN109391691A
CN109391691A CN201811215454.5A CN201811215454A CN109391691A CN 109391691 A CN109391691 A CN 109391691A CN 201811215454 A CN201811215454 A CN 201811215454A CN 109391691 A CN109391691 A CN 109391691A
Authority
CN
China
Prior art keywords
virtual machine
node
nas
kvm
kvm virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811215454.5A
Other languages
English (en)
Other versions
CN109391691B (zh
Inventor
侯胜伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou Yunhai Information Technology Co Ltd
Original Assignee
Zhengzhou Yunhai Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Yunhai Information Technology Co Ltd filed Critical Zhengzhou Yunhai Information Technology Co Ltd
Priority to CN201811215454.5A priority Critical patent/CN109391691B/zh
Publication of CN109391691A publication Critical patent/CN109391691A/zh
Application granted granted Critical
Publication of CN109391691B publication Critical patent/CN109391691B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1044Group management mechanisms 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1044Group management mechanisms 
    • H04L67/1048Departure or maintenance mechanisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45562Creating, deleting, cloning virtual machine instances

Abstract

本申请公开了一种单节点故障下NAS服务的恢复方法,包括虚拟机管理装置定时获取自身节点KVM虚拟机的第一状态信息;根据第一状态信息判断自身节点KVM虚拟机是否在NAS集群内;若是,则获取对端节点KVM虚拟机的第二状态信息;根据第二状态信息判断对端节点KVM虚拟机是否在NAS集群内;若否,则将对端节点KVM虚拟机添加至NAS集群,以实现NAS服务的恢复;该方法可对NAS集群系统中的故障KVM虚拟机进行自动恢复,以恢复NAS服务,有效保证了系统的服务效率,并降低了系统的单节点运行压力。本申请还公开了一种单节点故障下NAS服务的恢复装置、系统、虚拟机管理装置及计算机可读存储介质,均具有上述有益效果。

Description

一种单节点故障下NAS服务的恢复方法及相关装置
技术领域
本申请涉及网络存储系统技术领域,特别涉及一种单节点故障下NAS服务的恢复方法,还涉及一种单节点故障下NAS服务的恢复装置、系统、虚拟机管理装置及计算机可读存储介质。
背景技术
NAS(Network Attached Storage,网络附属存储系统)是连接于网络,具备数据存储功能的装置,其以数据为中心,将存储设备与服务器彻底分离,集中管理数据,从而达到释放带宽、提高性能的目的,具备低成本、高效率的优势,是一种专用数据存储服务器。集群NAS则是协同多个宿主机节点(HOST节点)以提供高性能、高可用或高负载均衡的NAS服务。
NAS集群系统是一种横向扩展存储架构,具有容量和性能线性扩展的优势,请参考图1,图1为已有技术中所提供的一种NAS集群系统的结构示意图,以系统中存在两个HOST节点(即图1中所示node1和node2)为例,每个HOST节点上均存在集群,用以实现节点管理。其中,每个HOST节点上均存在一个KVM虚拟机,以对外提供NAS服务,两个KVM虚拟机间存在NAS集群,用以实现对两个KVM虚拟机进行管理。当系统中一个HOST节点上的KVM虚拟机发生故障时,将会导致该HOST节点的NAS集群信息丢失。此时,即使该HOST节点的KVM虚拟机在故障修复后又恢复运行,但由于NAS集群信息的丢失,导致无法自动加入NAS集群,由此,该KVM虚拟机将无法继续对外提供NAS服务,而系统也只能继续使用另外一个HOST节点的KVM虚拟机对外提供NAS服务,由此,不仅降低了系统的服务效率,也很大程度上增加了系统的单节点运行压力以及故障风险。
因此,如何有效恢复故障KVM虚拟机的NAS服务,以保证系统的服务效率,降低系统的单节点运行压力,从而降低故障风险是本领域技术人员亟待解决的问题。
发明内容
本申请的目的是提供一种单节点故障下NAS服务的恢复方法,该恢复方法可对NAS集群系统中的故障KVM虚拟机进行自动恢复,以恢复NAS服务,有效保证了系统的服务效率,降低了系统的单节点运行压力,进一步降低了故障风险;本申请的另一目的是提供一种单节点故障下NAS服务的恢复装置、系统、虚拟机管理装置及计算机可读存储介质,均具有上述有益效果。
为解决上述技术问题,本申请提供了一种单节点故障下NAS服务的恢复方法,所述恢复包括:
虚拟机管理装置定时获取自身节点KVM虚拟机的第一状态信息;
根据所述第一状态信息判断所述自身节点KVM虚拟机是否在NAS集群内;
若是,则获取对端节点KVM虚拟机的第二状态信息;
根据所述第二状态信息判断所述对端节点KVM虚拟机是否在NAS集群内;
若否,则将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复。
优选的,所述虚拟机管理装置定时获取自身节点KVM虚拟机的第一状态信息之前,还包括:
定时获取自身节点和对端节点的状态信息;
根据各个所述状态信息判断所述自身节点和所述对端节点是否均在HOST集群内,且均处于正常运行状态;
若是,则进入所述获取自身节点KVM虚拟机的第一状态信息的步骤。
优选的,所述将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复之前,还包括:
根据所述第二状态信息判断所述对端节点KVM虚拟机是否处于正常运行状态;
若否,则继续按照预设时间间隔获取所述对端节点KVM虚拟机的状态信息,直至所述对端节点KVM虚拟机处于正常运行状态。
优选的,所述将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复,包括:
基于SSH协议登录所述对端节点KVM虚拟机,将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复。
为解决上述技术问题,本申请还提供了一种单节点故障下NAS服务的恢复装置,所述恢复装置包括:
第一状态信息获取模块,用于定时获取自身节点KVM虚拟机的第一状态信息;
第一状态信息判断模块,用于根据所述第一状态信息判断所述自身节点KVM虚拟机是否在NAS集群内;若是,则进入第二状态信息获取模块;
所述第二状态信息获取模块,用于获取对端节点KVM虚拟机的第二状态信息;
第二状态信息判断模块,用于根据所述第二状态信息判断所述对端节点KVM虚拟机是否在NAS集群内;若否,则进入虚拟机恢复模块;
所述虚拟机恢复模块,用于将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复。
优选的,所述恢复装置还包括:
节点状态获取模块,用于获取定时获取自身节点和对端节点的状态信息;
节点状态判断模块,用于根据各个所述状态信息判断所述自身节点和所述对端节点是否均在HOST集群内,且均处于正常运行状态,若是,则进入所述第一状态信息获取模块。
优选的,所述恢复装置还包括:
故障虚拟机状态判定模块,用于根据所述第二状态信息判断所述对端节点KVM虚拟机是否处于正常运行状态;若否,则进入故障虚拟机状态获取模块;
所述故障虚拟机状态获取模块,用于继续按照预设时间间隔获取所述对端节点KVM虚拟机的状态信息,直至所述对端节点KVM虚拟机处于正常运行状态。
为解决上述技术问题,本申请还提供了一种虚拟机管理装置,所述虚拟机管理装置包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现上述任一种所述的单节点故障下NAS服务的恢复方法的步骤。
为解决上述技术问题,本申请还提供了一种单节点故障下NAS服务的恢复系统,所述恢复系统包括第一节点和第二节点,其中,所述第一节点和所述第二节点互为对端节点;所述第一节点和所述第二节点上均设置有上述虚拟机管理装置。
为解决上述技术问题,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一种所述的单节点故障下NAS服务的恢复方法的步骤。
本申请所提供的一种单节点故障下NAS服务的恢复方法,包括虚拟机管理装置定时获取自身节点KVM虚拟机的第一状态信息;根据所述第一状态信息判断所述自身节点KVM虚拟机是否在NAS集群内;若是,则获取对端节点KVM虚拟机的第二状态信息;根据所述第二状态信息判断所述对端节点KVM虚拟机是否在NAS集群内;若否,则将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复。
可见,本申请所提供的技术方案,通过在各个HOST节点上设置虚拟机管理装置,运行虚拟机管理进程,可对自身节点以及对端节点上的KVM虚拟机的状态信息进行定时获取,由于自身节点与对端节点均处于NAS集群内,二者所拥有的部分资源信息相同,当发现对端节点上的KVM虚拟机发生故障时,即可在其故障恢复后再将其添加至NAS集群内,由此,通过节点与节点间的相互监控,实现了NAS集群系统中故障KVM虚拟机的自动恢复,从而恢复系统对外提供的NAS服务,有效保证了NAS集群存储系统的服务效率,降低了系统的单节点运行压力,进一步降低了故障风险。
本申请所提供的一种单节点故障下NAS服务的恢复装置、系统、虚拟机管理装置及计算机可读存储介质,均具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为已有技术中所提供的一种NAS集群系统的结构示意图;
图2为本申请所提供的一种单节点故障下NAS服务的恢复方法的流程示意图;
图3为本申请所提供的一种单节点故障下NAS服务的恢复装置的结构示意图;
图4为本申请所提供的一种虚拟机管理装置的结构示意图;
图5为本申请所提供的一种单节点故障下NAS服务的恢复系统的结构示意图。
具体实施方式
本申请的核心是提供一种单节点故障下NAS服务的恢复方法,该恢复方法可对NAS集群系统中的故障KVM虚拟机进行自动恢复,以恢复NAS服务,有效保证了系统的服务效率,降低了系统的单节点运行压力,进一步降低了故障风险;本申请的另一核心是提供一种单节点故障下NAS服务的恢复装置、系统、虚拟机管理装置及计算机可读存储介质,均具有上述有益效果。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
当NAS集群存储系统中一个HOST节点上的KVM虚拟机发生故障时,将会导致该HOST节点上NAS集群信息的丢失,即便其在故障修复后又恢复至正常运行状态,但由于NAS集群信息的丢失,导致其无法自动加入NAS集群,故该KVM虚拟机同样无法继续对外提供NAS服务,而系统也只能继续使用另外一个HOST节点的KVM虚拟机对外提供NAS服务,由此,不仅降低了系统的服务效率,也增加了系统的单节点运行压力以及故障风险。因此,为解决上述问题,本申请提供了一种单节点故障下NAS服务的恢复方法,该方法可对NAS集群系统中的故障KVM虚拟机进行自动恢复,以恢复NAS服务,有效保证了系统的服务效率,并降低了系统的单节点运行压力。
请参考图2,图2为本申请所提供的一种单节点故障下NAS服务的恢复方法的流程示意图,该恢复方法可以包括:
S101:虚拟机管理装置定时获取自身节点KVM虚拟机的第一状态信息;
具体的,可在NAS集群存储系统的各个HOST节点上均设置虚拟机管理装置,用于运行虚拟机管理脚本,通过虚拟机管理进程可定时获取自身节点上KVM虚拟机当前运行的状态信息,即上述第一状态信息。其中,该第一状态信息的具体内容,可包括当前节点上KVM虚拟机是否处于正常运行状态、是否在NAS集群内等相关信息。
此外,由于KVM虚拟机发生故障的时间是无法进行确定的,因此,需要定时运行虚拟机管理脚本,而对于其对应的定时时间,本申请不做具体限定,可由技术人员根据实际需求预先进行设定。例如,在本申请中,设定上述时间间隔为5分钟,即每隔5分钟运行一次虚拟机管理脚本,以实现上述第一状态信息的获取。从而实现后述步骤中判定NAS集群存储系统中是否存在发生KVM虚拟机故障的HOST节点,若存在,则进行故障KVM虚拟机自动恢复。
S102:根据第一状态信息判断自身节点KVM虚拟机是否在NAS集群内;
具体的,在获得第一状态信息后,即可根据该第一状态信息判断自身节点,即虚拟机管理装置所在的HOST节点上的KVM虚拟机是否在NAS集群内,若在NAS集群内,则说明自身节点KVM虚拟机未发生故障,未脱离NAS集群,仍处于正常对外提供NAS服务的运行状态。
当然,如果自身节点KVM虚拟机已经发生故障且脱离了NAS集群,则该KVM虚拟机将法运行上述虚拟机管理脚本。此时,等待技术人员对其进行故障修复即可。进一步,即便该故障KVM虚拟机完成了故障恢复,也将由于其NAS集群信息的丢失,而无法基于自身重新加入NAS集群存储系统,以恢复NAS服务。
S103:若自身节点KVM虚拟机在NAS集群内,则获取对端节点KVM虚拟机的第二状态信息;
具体的,当自身节点KVM虚拟机在NAS集群内时,可进一步获取对端节点上KVM虚拟机的运行状态信息,即上述第二状态信息。当然,该第二状态信息可与上述第一状态信息所包括的内容相同,可用于实现对对应的KVM虚拟机运行状态的判定即可。
其中,上述对端节点即为上述自身节点对应的HOST节点,即两个HOST节点之间存在NAS集群,可用于对外实现NAS服务。因此,本申请所提供的技术方案适用于NAS集群存储系统中各个相互对应、互为对端节点的HOST节点,并非仅仅单纯的指代两个HOST节点。
S104:根据第二状态信息判断对端节点KVM虚拟机是否在NAS集群内;
具体的,在完成第二状态信息的获取后,即可根据该第二状态信息判断对端节点KVM虚拟机是否在NAS集群内,该判断过程与上述根据第一状态信息判断自身节点KVM虚拟机是否在NAS集群内的过程相同,本申请在此不再赘述。
进一步,当对端节点KVM虚拟机在NAS集群内时,则说明对端节点KVM虚拟机未发生故障,处于正常运行状态,并未脱离NAS集群,此时,该虚拟机管理进程运行结束,等待下一次启动即可。如若对端节点KVM虚拟机不在NAS集群内,则说明对端节点KVM虚拟机已经发生故障且已脱离NAS集群,即使故障修复也无法通过其自身重新进入NAS进群,此时,进入S105对端节点KVM虚拟机进行恢复即可。
S105:若对端节点KVM虚拟机不在NAS集群内,则将对端节点KVM虚拟机添加至NAS集群,以实现NAS服务的恢复。
具体的,当对端节点KVM虚拟机不在NAS集群内时,由于自身节点与对端节点均处于NAS集群内,二者所拥有的部分资源信息相同,如地址信息等,此时,可将对端节点KVM虚拟机添加至NAS集群,以进一步实现NAS服务的恢复。由此,通过互为对端节点的两个HOST节点的相互监控,即实现了NAS集群存储系统中故障KVM虚拟机的自动恢复。
优选的,上述将对端节点KVM虚拟机添加至NAS集群,以实现NAS服务的恢复,可以包括:基于SSH协议登录对端节点KVM虚拟机,将对端节点KVM虚拟机添加至NAS集群,以实现NAS服务的恢复。
具体的,将对端节点KVM虚拟机添加至NAS集群,可通过SSH协议(Secure Shell,安全外壳协议)登录对端节点KVM虚拟机实现。其中,SSH协议是为远程登录会话和其他网络服务等提供安全性的协议,具有较高的可靠性,可有效防止远程管理过程中的信息泄露问题;此外,由于基于SSH协议所传输的数据是经过压缩的,故其数据传输速率较高。
本申请所提供的单节点故障下NAS服务的恢复方法,通过在各个HOST节点上设置虚拟机管理装置,运行虚拟机管理进程,可对自身节点以及对端节点上的KVM虚拟机的状态信息进行定时获取,由于自身节点与对端节点均处于NAS集群内,二者所拥有的部分资源信息相同,当发现对端节点上的KVM虚拟机发生故障时,即可在其故障恢复后再将其添加至NAS集群内,由此,通过节点与节点间的相互监控,实现了NAS集群系统中故障KVM虚拟机的自动恢复,从而恢复系统对外提供的NAS服务,有效保证了NAS集群存储系统的服务效率,降低了系统的单节点运行压力,进一步降低了故障风险。
作为一种优选实施例,上述虚拟机管理装置定时获取自身节点KVM虚拟机的第一状态信息之前,还可以包括:
定时获取自身节点和对端节点的状态信息;
根据各个状态信息判断自身节点和对端节点是否均在HOST集群内,且均处于正常运行状态;若是,则进入获取自身节点KVM虚拟机的第一状态信息的步骤。
具体的,虚拟机管理装置在获取第一状态信息之前,可先对自身节点以及对端节点的运行状态进行判定,以确保互相监控的两个HOST节点均处于正常运行的状态。首先,可定时获取自身节点很对端节点的状态信息,当然,该状态信息的获取过程可参照上述第一状态信息和第二状态信息的获取过程;进一步,根据该状态信息判断两个HOST节点是否均在整个HOST集群内,并且均处于正常运行状态,若否,则说明HOST节点已经发生故障,此时,将无法继续进行后续步骤。若满足上述条件,则可进入S101进行第一状态信息的获取。
对于本申请实施例所提供的技术方案的其他实施步骤,可参照上一方法实施例,本申请在此不再赘述。
作为一种优选实施例,上述将对端节点KVM虚拟机添加至NAS集群,以实现NAS服务的恢复之前,还可以包括:
根据第二状态信息判断对端节点KVM虚拟机是否处于正常运行状态;
若否,则继续按照预设时间间隔获取对端节点KVM虚拟机的状态信息,直至对端节点KVM虚拟机处于正常运行状态。
具体的,KVM虚拟机发生故障后,需要等待技术人员进行故障修复,由于其故障类型的不同,其对应的修复时间也有所不同,而虚拟机管理装置只能将故障修复后的对端节点KVM虚拟机添加至NAS集群。因此,在获得第二状态信息确定对端节点KVM虚拟机已经脱离NAS集群时,可通过不断的重复获取其状态信息来确定其是否完成故障修复,并恢复至可正常运行状态,当故障KVM虚拟机完成故障修复,并恢复至正常运行状态时,即可继续进行后续步骤,以实现将对端节点KVM虚拟机添加至NAS集群,从而恢复NAS服务。
对于本申请实施例所提供的技术方案的其他实施步骤,可参照上一方法实施例,本申请在此不再赘述。
为解决上述问题,请参考图3,图3为本申请所提供的一种单节点故障下NAS服务的恢复装置的结构示意图,该恢复装置可以包括:
第一状态信息获取模块100,用于定时获取自身节点KVM虚拟机的第一状态信息;
第一状态信息判断模块200,用于根据第一状态信息判断自身节点KVM虚拟机是否在NAS集群内;若是,则进入第二状态信息获取模块300;
第二状态信息获取模块300,用于获取对端节点KVM虚拟机的第二状态信息;
第二状态信息判断模块400,用于根据第二状态信息判断对端节点KVM虚拟机是否在NAS集群内;若否,则进入虚拟机恢复模块500;
虚拟机恢复模块500,用于将对端节点KVM虚拟机添加至NAS集群,以实现NAS服务的恢复。
作为一种优选实施例,该恢复装置还可以包括:
节点状态获取模块,用于获取定时获取自身节点和对端节点的状态信息;
节点状态判断模块,用于根据各个状态信息判断自身节点和对端节点是否均在HOST集群内,且均处于正常运行状态,若是,则进入第一状态信息获取模块。
作为一种优选实施例,该恢复装置还可以包括:
故障虚拟机状态判定模块,用于根据第二状态信息判断对端节点KVM虚拟机是否处于正常运行状态;若否,则进入故障虚拟机状态获取模块;
故障虚拟机状态获取模块,用于继续按照预设时间间隔获取对端节点KVM虚拟机的状态信息,直至对端节点KVM虚拟机处于正常运行状态。
作为一种优选实施例,虚拟机恢复模块500可具体用于基于SSH协议登录对端节点KVM虚拟机,将对端节点KVM虚拟机添加至NAS集群,以实现NAS服务的恢复。
对于本申请提供的装置的介绍请参照上述方法实施例,本申请在此不做赘述。
为解决上述问题,请参考图4,图4为本申请所提供的一种虚拟机管理装置的结构示意图,该虚拟机管理装置可以包括:
存储器11,用于存储计算机程序;
处理器12,用于执行上述存储器11存储的计算机程序时可实现如下步骤:
定时获取自身节点KVM虚拟机的第一状态信息;根据第一状态信息判断自身节点KVM虚拟机是否在NAS集群内;若是,则获取对端节点KVM虚拟机的第二状态信息;根据第二状态信息判断对端节点KVM虚拟机是否在NAS集群内;若否,则将对端节点KVM虚拟机添加至NAS集群,以实现NAS服务的恢复。
对于本申请提供的虚拟机管理装置的介绍请参照上述方法实施例,本申请在此不做赘述。
为解决上述问题,请参考图5,图5为本申请所提供的一种单节点故障下NAS服务的恢复系统的结构示意图,该恢复系统可以包括第一节点1和第二节点2,其中,第一节点1和第二节点2互为对端节点;第一节点1和第二节点2上均设置上述虚拟机管理装置,该虚拟机管理装置可用于实现上述任意一种单节点故障下NAS服务的恢复方法的步骤。
对于本申请提供的系统的介绍请参照上述方法实施例,本申请在此不做赘述。
为解决上述问题,本申请还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现如下步骤:
定时获取自身节点KVM虚拟机的第一状态信息;根据第一状态信息判断自身节点KVM虚拟机是否在NAS集群内;若是,则获取对端节点KVM虚拟机的第二状态信息;根据第二状态信息判断对端节点KVM虚拟机是否在NAS集群内;若否,则将对端节点KVM虚拟机添加至NAS集群,以实现NAS服务的恢复。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
对于本申请提供的计算机可读存储介质的介绍请参照上述方法实施例,本申请在此不做赘述。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的单节点故障下NAS服务的恢复方法、装置、系统、虚拟机管理装置及计算机可读存储介质进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围要素。

Claims (10)

1.一种单节点故障下NAS服务的恢复方法,其特征在于,包括:
虚拟机管理装置定时获取自身节点KVM虚拟机的第一状态信息;
根据所述第一状态信息判断所述自身节点KVM虚拟机是否在NAS集群内;
若是,则获取对端节点KVM虚拟机的第二状态信息;
根据所述第二状态信息判断所述对端节点KVM虚拟机是否在NAS集群内;
若否,则将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复。
2.如权利要求1所述的恢复方法,其特征在于,所述虚拟机管理装置定时获取自身节点KVM虚拟机的第一状态信息之前,还包括:
定时获取自身节点和对端节点的状态信息;
根据各个所述状态信息判断所述自身节点和所述对端节点是否均在HOST集群内,且均处于正常运行状态;
若是,则进入所述获取自身节点KVM虚拟机的第一状态信息的步骤。
3.如权利要求1所述的恢复方法,其特征在于,所述将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复之前,还包括:
根据所述第二状态信息判断所述对端节点KVM虚拟机是否处于正常运行状态;
若否,则继续按照预设时间间隔获取所述对端节点KVM虚拟机的状态信息,直至所述对端节点KVM虚拟机处于正常运行状态。
4.如权利要求3所述的恢复方法,其特征在于,所述将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复,包括:
基于SSH协议登录所述对端节点KVM虚拟机,将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复。
5.一种单节点故障下NAS服务的恢复装置,其特征在于,包括:
第一状态信息获取模块,用于定时获取自身节点KVM虚拟机的第一状态信息;
第一状态信息判断模块,用于根据所述第一状态信息判断所述自身节点KVM虚拟机是否在NAS集群内;若是,则进入第二状态信息获取模块;
所述第二状态信息获取模块,用于获取对端节点KVM虚拟机的第二状态信息;
第二状态信息判断模块,用于根据所述第二状态信息判断所述对端节点KVM虚拟机是否在NAS集群内;若否,则进入虚拟机恢复模块;
所述虚拟机恢复模块,用于将所述对端节点KVM虚拟机添加至所述NAS集群,以实现NAS服务的恢复。
6.如权利要求5所述的恢复装置,其特征在于,还包括:
节点状态获取模块,用于获取定时获取自身节点和对端节点的状态信息;
节点状态判断模块,用于根据各个所述状态信息判断所述自身节点和所述对端节点是否均在HOST集群内,且均处于正常运行状态,若是,则进入所述第一状态信息获取模块。
7.如权利要求5所述的恢复装置,其特征在于,还包括:
故障虚拟机状态判定模块,用于根据所述第二状态信息判断所述对端节点KVM虚拟机是否处于正常运行状态;若否,则进入故障虚拟机状态获取模块;
所述故障虚拟机状态获取模块,用于继续按照预设时间间隔获取所述对端节点KVM虚拟机的状态信息,直至所述对端节点KVM虚拟机处于正常运行状态。
8.一种虚拟机管理装置,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任意一项所述的单节点故障下NAS服务的恢复方法的步骤。
9.一种单节点故障下NAS服务的恢复系统,其特征在于,包括第一节点和第二节点,其中,所述第一节点和所述第二节点互为对端节点;所述第一节点和所述第二节点上均设置有如权利要求8所述的虚拟机管理装置。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至4任意一项所述的单节点故障下NAS服务的恢复方法的步骤。
CN201811215454.5A 2018-10-18 2018-10-18 一种单节点故障下nas服务的恢复方法及相关装置 Active CN109391691B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811215454.5A CN109391691B (zh) 2018-10-18 2018-10-18 一种单节点故障下nas服务的恢复方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811215454.5A CN109391691B (zh) 2018-10-18 2018-10-18 一种单节点故障下nas服务的恢复方法及相关装置

Publications (2)

Publication Number Publication Date
CN109391691A true CN109391691A (zh) 2019-02-26
CN109391691B CN109391691B (zh) 2022-02-18

Family

ID=65426933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811215454.5A Active CN109391691B (zh) 2018-10-18 2018-10-18 一种单节点故障下nas服务的恢复方法及相关装置

Country Status (1)

Country Link
CN (1) CN109391691B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110912729A (zh) * 2019-10-18 2020-03-24 苏州浪潮智能科技有限公司 一种nas集群的节点恢复方法、装置及设备
CN111162951A (zh) * 2019-12-31 2020-05-15 苏州浪潮智能科技有限公司 一种nas集群节点恢复方法及装置
CN111881067A (zh) * 2020-07-30 2020-11-03 北京浪潮数据技术有限公司 一种内存申请方法、装置、电子设备和介质
CN111966461A (zh) * 2020-08-14 2020-11-20 苏州浪潮智能科技有限公司 虚拟机集群节点守护方法、装置、设备及存储介质
CN113868246A (zh) * 2021-06-30 2021-12-31 苏州浪潮智能科技有限公司 存储系统中位图同步方法、系统、装置及可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101237400A (zh) * 2008-01-24 2008-08-06 创新科存储技术(深圳)有限公司 网络附加存储服务的迁移方法及网络附加存储节点
CN102571904A (zh) * 2011-10-11 2012-07-11 浪潮电子信息产业股份有限公司 一种模块化设计的nas集群系统构建方法
CN104184837A (zh) * 2014-09-15 2014-12-03 北京尖峰合讯科技有限公司 高可用云计算一体机
CN104219298A (zh) * 2014-08-27 2014-12-17 深圳市深信服电子科技有限公司 集群系统及其数据备份的方法
CN104468274A (zh) * 2014-12-16 2015-03-25 深圳大学 一种集群监控管理方法及系统
CN105468296A (zh) * 2015-11-18 2016-04-06 南京格睿信息技术有限公司 基于虚拟化平台的无共享存储管理方法
CN107239383A (zh) * 2017-06-28 2017-10-10 郑州云海信息技术有限公司 一种OpenStack虚拟机的故障监控方法及装置
CN107608826A (zh) * 2017-09-19 2018-01-19 郑州云海信息技术有限公司 一种存储集群的节点的故障恢复方法、装置及介质
CN107707393A (zh) * 2017-09-26 2018-02-16 赛尔网络有限公司 基于Openstack O版特性的多活系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101237400A (zh) * 2008-01-24 2008-08-06 创新科存储技术(深圳)有限公司 网络附加存储服务的迁移方法及网络附加存储节点
CN102571904A (zh) * 2011-10-11 2012-07-11 浪潮电子信息产业股份有限公司 一种模块化设计的nas集群系统构建方法
CN104219298A (zh) * 2014-08-27 2014-12-17 深圳市深信服电子科技有限公司 集群系统及其数据备份的方法
CN104184837A (zh) * 2014-09-15 2014-12-03 北京尖峰合讯科技有限公司 高可用云计算一体机
CN104468274A (zh) * 2014-12-16 2015-03-25 深圳大学 一种集群监控管理方法及系统
CN105468296A (zh) * 2015-11-18 2016-04-06 南京格睿信息技术有限公司 基于虚拟化平台的无共享存储管理方法
CN107239383A (zh) * 2017-06-28 2017-10-10 郑州云海信息技术有限公司 一种OpenStack虚拟机的故障监控方法及装置
CN107608826A (zh) * 2017-09-19 2018-01-19 郑州云海信息技术有限公司 一种存储集群的节点的故障恢复方法、装置及介质
CN107707393A (zh) * 2017-09-26 2018-02-16 赛尔网络有限公司 基于Openstack O版特性的多活系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110912729A (zh) * 2019-10-18 2020-03-24 苏州浪潮智能科技有限公司 一种nas集群的节点恢复方法、装置及设备
CN111162951A (zh) * 2019-12-31 2020-05-15 苏州浪潮智能科技有限公司 一种nas集群节点恢复方法及装置
CN111881067A (zh) * 2020-07-30 2020-11-03 北京浪潮数据技术有限公司 一种内存申请方法、装置、电子设备和介质
CN111881067B (zh) * 2020-07-30 2022-07-08 北京浪潮数据技术有限公司 一种内存申请方法、装置、电子设备和介质
CN111966461A (zh) * 2020-08-14 2020-11-20 苏州浪潮智能科技有限公司 虚拟机集群节点守护方法、装置、设备及存储介质
CN111966461B (zh) * 2020-08-14 2023-01-06 苏州浪潮智能科技有限公司 虚拟机集群节点守护方法、装置、设备及存储介质
CN113868246A (zh) * 2021-06-30 2021-12-31 苏州浪潮智能科技有限公司 存储系统中位图同步方法、系统、装置及可读存储介质
CN113868246B (zh) * 2021-06-30 2024-01-19 苏州浪潮智能科技有限公司 存储系统中位图同步方法、系统、装置及可读存储介质

Also Published As

Publication number Publication date
CN109391691B (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
CN109391691A (zh) 一种单节点故障下nas服务的恢复方法及相关装置
CN100426751C (zh) 保证集群系统中配置信息一致的方法
CN103812823A (zh) 虚拟机热迁移时配置信息迁移的方法、设备及系统
CN106170948A (zh) 一种用于双活数据中心的仲裁方法、装置及系统
CN110830283A (zh) 故障检测方法、装置、设备和系统
CN105515912B (zh) 一种多节点之间链路有效性检测和处理方法
CN112181660A (zh) 一种基于服务器集群的高可用方法
CN112272291B (zh) 视频存储方法、装置、管理设备及可读存储介质
CN108924202B (zh) 一种分布式集群的数据容灾方法以及相关装置
CN101262369A (zh) 调度服务器的主备实现方法及调度服务器
CN109151082A (zh) 一种多连接建立方法、装置和系统
CN111010319B (zh) 基于vsf的链路检测方法及装置
CN103516587A (zh) 即时通信客户端断线重连的方法和装置
CN107948063B (zh) 一种建立聚合链路的方法和接入设备
CN102882805B (zh) 避免链路聚合组状态震荡的方法及装置
CN107357800A (zh) 一种数据库高可用零丢失解决方法
CN111756826B (zh) 一种dlm的锁信息传输方法以及相关装置
CN108667640B (zh) 通信方法及设备、网络接入系统
CN109308233A (zh) 数据备份方法、装置及系统
WO2016206433A1 (zh) 服务器负载均衡的方法及装置
CN104657240B (zh) 多内核操作系统的失效控制方法及装置
CN114301763A (zh) 分布式集群故障的处理方法及系统、电子设备及存储介质
CN105426118B (zh) 一种双控系统中利用串口备份心跳通道的方法
CN114143903A (zh) 一种网络切片pdu会话的配置方法、装置、设备及介质
CN111416726B (zh) 一种资源管理的方法、发送端设备和接收端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant