CN104660663A - 服务器群集的操作方法 - Google Patents

服务器群集的操作方法 Download PDF

Info

Publication number
CN104660663A
CN104660663A CN201310669915.7A CN201310669915A CN104660663A CN 104660663 A CN104660663 A CN 104660663A CN 201310669915 A CN201310669915 A CN 201310669915A CN 104660663 A CN104660663 A CN 104660663A
Authority
CN
China
Prior art keywords
application server
node
index value
join index
failure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310669915.7A
Other languages
English (en)
Other versions
CN104660663B (zh
Inventor
陈干越
刘家宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Synology Inc
Original Assignee
Synology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Synology Inc filed Critical Synology Inc
Publication of CN104660663A publication Critical patent/CN104660663A/zh
Application granted granted Critical
Publication of CN104660663B publication Critical patent/CN104660663B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/203Failover techniques using migration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1034Reaction to server failures by a load balancer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1044Group management mechanisms 
    • H04L67/1048Departure or maintenance mechanisms

Abstract

本发明公开了一种服务器群集的操作方法。服务器群集包含多个应用服务器。在对上述多个应用服务器中的一个失败节点进行故障转移时,根据失败节点的失败连接索引值、服务器群集的存活节点的总数以及各存活节点的成功连接索引值,将失败节点的网际协议地址的使用权转移至服务器群集的存活节点。

Description

服务器群集的操作方法
技术领域
本发明涉及一种服务器群集(server cluster)的操作方法,特别是涉及一种于服务器群集的多个应用服务器之间进行故障转移(failover)的方法。
背景技术
许多的网路服务会采用客户端/服务器(client/server)的架构来达成。在当代的客户端/服务器的环境里,服务器端会藉由多个应用服务器组成一个服务器群集(server cluster),而每一个应用服务器可称为上述服务器群集的节点(node)。服务器群集对其所服务的各客户端而言仿佛像是单一个服务器,而在理想的服务器群集中,每个节点(应用服务器)会平均地处理来自客户端的网路服务需求。然而,当应用服务器故障时,为避免服务的中断,即会对故障的服务器进行故障转移(failover)。待服务器修复后,则可进行故障恢复(failback)。
发明内容
在本发明的一实施例中公开一种服务器群集的操作方法。服务器群集包括m个应用服务器。上述方法包括设定m个应用服务器的所有存活节点(surviving node)的数值相异的成功连接索引值;设定m个应用服务器的所有失败节点(failed node)的数值相异的失败连接索引值;以及当m个应用服务器的第s应用服务器为失败节点,而对第s应用服务器进行故障转移(failover)时,根据第s应用服务器的失败连接索引值、m个应用服务器中存活节点的总数以及各存活节点的成功连接索引值,将第s应用服务器的网际协议地址(internet protocol address)的使用权转移至m个应用服务器的第t应用服务器。其中m>1,0<s≤m,0<t≤m,且m、s及t皆为正整数。
本发明实施例的服务器群集的操作方法,采用非协调式(non-coordinated)架构来进行故障转移,服务器群集其各节点的地位相等,而不需如协调式(coordinated)架构一样需要主节点负责协调以进行故障转移。各应用服务器可依目前服务器群集的状态进行故障转移或是故障恢复(failback)。当进行故障转移时,会根据目前服务器群集各服务器的状态决定故障转移方式,以避免单一节点负载过高。再者,当进行失败节点的故障恢复时,会进行动态负载平衡,以避免单一节点负载过高。此外,服务器群集中不会有两个以上的节点对同一失败节点(Failed node)进行故障转移,而可确保服务器群集的稳定性。
附图说明
图1为本发明一实施例的服务器群集的示意图。
图2为图1每一应用服务器所记录的成功连接索引表及失败连接索引表的示意图。
图3绘示图1的服务器群集的一种状态。
图4绘示图3的服务器群集所对应的成功连接索引表及失败连接索引表。
图5绘示图1的服务器群集的另一种状态。
图6绘示图5的服务器群集所对应的成功连接索引表及失败连接索引表。
图7绘示第1图的服务器群集的另一种状态。
图8绘示图7的服务器群集所对应的成功连接索引表及失败连接索引表。
图9绘示图1的服务器群集的另一种状态。
图10绘示图9的服务器群集所对应的成功连接索引表及失败连接索引表。
其中,附图标记说明如下:
100    服务器群集
110    网路
120    存活节点表格
122    成功连接索引数据
130    失败节点表格
132       失败连接索引数据
A至F      应用服务器
IPA至IPF   网际协议地址
具体实施方式
请参考图1,图1为本发明一实施例的服务器群集(server cluster)100的示意图。服务器群集100包括多个应用服务器A至F。应用服务器A至F之间可通过网路110彼此地连接(link)。服务器群集100采用非协调式的架构来进行应用服务器A至F之间的故障转移(failover)及故障恢复(failback)。应用服务器A至F中的每一个应用服务器可被视为服务器群集100中的一个节点(node),且应用服务器A至F中的每一个应用服务器会周期性的检查服务器群集100中各应用服务器A至F的状态,并从各应用服务器A至F的状态产生出如图2所示的存活节点表格120以及失败节点表格130。其中,存活节点表格120用以记录应用服务器A至F中的哪些应用服务器是可正常提供服务的应用服务器,而失败节点表格130则是用以记录应用服务器A至F中的哪些应用服务器是无法正常提供服务的应用服务器。在后续的说明中,可正常提供服务的应用服务器称为存活节点(surviving node),而无法正常提供服务的应用服务器则称为失败节点(failed node)。此外,必须了解地,虽然本实施例以六个应用服务器A至F作说明,但本发明并不以此为限。本发明的操作方法适用于包括两个或更多个应用服务器的服务器群集。
应用服务器A至F使用网际协议地址(internet protocol address)IPA至IPF接收来自客户端的网路服务需求,并提供网路服务至客户端。其中,应用服务器A、B、C、D、E和F所使用的网际协议地址分别为IPA、IPB、IPC、IPD、IPE及IPF。在本发明一实施例,每一应用服务器A至F会依照网际协议地址IPA至IPF设定应用服务器A至F的顺序。例如,在本实施例中,因IPA<IPB<IPC<IPD<IPE<IPF,故应用服务器A至F的顺序被设定为A→B→C→D→E→F。然而,应用服务器A至F的顺序的设定方式并不限于依据用服务器A至F的网际协议地址IPA至IPF进行设定,亦可依据应用服务器A至F的其他相关数据进行设定,例如:可依据应用服务器A至F的媒体访问控制地址(MAC Address)来设定应用服务器A至F的顺序。此外,应用服务器A至F的顺序亦可藉由人工的方式事先建立在各应用服务器A至F。由于每一个应用服务器A至F采用相同的规则来设定应用服务器A至F的顺序,故每一应用服务器A至F所设定的顺序会一致。此外,每一应用服务器A至F会依据所设定的顺序产生各自的存活节点表格120以及失败节点表格130,而各应用服务器A至F会周期性地重建存活节点表格120以及失败节点表格130,以使存活节点表格120以及失败节点表格130能适时地反应各应用服务器A至F的状态。由于每一应用服务器A至F所设定的应用服务器的顺序会一致,故每一存活节点各自产生的存活节点表格120以及失败节点表格130皆会相同。至于失败节点,则因其网路连线可能有问题而连带地影响其存活节点表格120及失败节点表格130的准确性,故失败节点所建立的存活节点表格120及失败节点表格130不会被使用,直到失败节点因故障恢复而成为存活节点并重新建立其存活节点表格120及失败节点表格130为止。
以下将就存活节点表格120以及失败节点表格130的功用作说明。以图1及图2为例,因所有的应用服务器A至F皆为可正常提供网路服务的应用服务器,故存活节点表格120会将所有的应用服务器A至F皆记录为存活节点,而失败节点表格130则不会记录任何的失败节点,且存活节点表格120所记录的成功连接索引数据122的顺序为应用服务器A→B→C→D→E→F。更进一步地说,存活节点表格120包括有多笔的成功连接索引数据122,而每一笔成功连接索引数据122对应于一个存活节点,并记录其对应的存活节点的成功连接索引值。以图1和图2的情况为例,因六个应用服务器A至F都为存活节点,故存活节点表格120会记录六笔成功连接索引数据122,而应用服务器A至F所对应的成功连接索引值分别为0至5。其中,因服务器A的网际协议地址IPA的次序最先,故其成功连接索引值最小;而服务器F的网际协议地址IPF的次序最后,故其成功连接索引值最大。上述存活节点表格120产生各笔成功连接索引数据122的方式亦适用于具其他数目应用服务器的服务器群集100。举例来说,倘若服务器群集100共有m个应用服务器,则在m个应用服务器都为存活节点的情况下,存活节点表格120会记录m笔成功连接索引数据122,而m个服务器所对应的成功连接索引值分别为0至(m-1),其中m为大于1的正整数。各笔成功连接索引数据122的成功连接索引值是作为进行故障转移的依据。至于如何依据各笔成功连接索引数据122的成功连接索引值以进行故障转移,将在下面的叙述中有进一步的说明。
请参考图3及图4。图3用以说明对图1的服务器群集100的应用服务器C进行故障转移的过程,而图4绘示了图3的服务器群集100所对应的存活节点表格120及失败节点表格130。在对应用服务器C进行故障转移的过程中,应用服务器C所使用的网际协议地址IPC的使用权会被转移至应用服务器A,且应用服务器C所对应的成功连接索引数据122会从存活节点表格120中删除,且失败节点表格130中会建立一笔失败连接索引数据132,以记录应用服务器C已转变成失败节点。应用服务器A则会使用网际协议地址IPA及IPC继续地提供应用服务器A本身及应用服务器C原先所提供的网路服务。此外,当应用服务器C所对应的成功连接索引数据122自存活节点表格120删除时,应用服务器A及B的成功连接索引值维持不变,而应用服务器D、E及F因其成功连接索引值皆大于应用服务器C的成功连接索引值,故应用服务器D、E及F的成功连接索引值会分别地减1。再者,应该由存活的应用服务器A、B、D、E及F中的哪一个应用服务器进行应用服务器C的故障转移,是依据应用服务器A、B、D、E及F的成功连接索引值来决定,而具有较小的成功连接索引值的应用服务器会较优先地对失败节点进行故障转移。以图3和图4的情况为例,由于应用服务器A具有最小的成功连接索引值,故应用服务器C将由应用服务器A进行故障转移。此外,当应用服务器A对应用服务器C进行故障转移时,其他的应用服务器B、D、E及F就不会对应用服务器C进行故障转移。因此,服务器群集100中不会有两个以上的节点对同一失败节点进行故障转移,故可确保服务器群集100的稳定性以及一致性。
请再参考图1至图2。在本发明一实施例中,每一应用服务器A至F会周期性地进行自我检查,以判断其本身是否还可继续正常地提供网路服务。倘若应用服务器A至F中任一应用服务器经自我检查后,判断其本身已经无法再继续正常地提供网路服务,则会中断与网路110之间的连接。在本发明一实施例中,各应用服务器A至F会通过应用服务器A至F之间的TCP/IP协议(Transmission Control Protocol/Internet Protocol)连线,判断与其他应用服务器之间的连接是否中断。在本发明另一实施例中,各应用服务器A至F则通过周期性地对其他应用服务器发出因特网包探索指令(Packet InternetGroper command,PING command),以判断与其他应用服务器之间的连接是否中断。其中,被判断其连接已经中断的应用服务器会被视为失败节点;相对地,被判断其连接未中断的应用服务器则会被视为存活节点。藉此,各应用服务器A至F即可产生各自的存活节点表格120以及失败节点表格130。另外,因所有的存活节点产生存活节点表格120及失败节点表格130的方式一致,故各存活节点的存活节点表格120及失败节点表格130的内容会与其他存活节点的存活节点表格120及失败节点表格130完全地一致。
请参考图5及图6。图5绘示图1的服务器群集100的应用服务器C、D及E转变成失败节点时的状态,而图6绘示了图5的服务器群集100所对应的存活节点表格120及失败节点表格130。当存活节点重建其存活节点表格120及失败节点表格130时,各存活节点会依据所有存活节点所对应的顺序建立其存活节点表格120,并依据各失败节点所对应的顺序建立其失败节点表格130。以图5及图6为例,存活节点共有应用服务器A、B及F,而其顺序为A→B→F,故应用服务器A、B及F所对应的成功连接索引值由小到大分别为0、1和2。另失败节点共有应用服务器C、D及E,而其顺序为C→D→E,故应用服务器C、D及E所对应的失败连接索引值由小到大分别为0、1和2。此外,每一个失败节点应该由哪一个成功节点进行故障转移是依据下述方程式来决定:
FAILOVER(Fi)=Simod||S||
其中,Fi为失败节点表格130中失败连接索引值等于i的节点,Simod||S||为存活节点表格120中成功连接索引值等于imod||S||的节点,||S||为存活节点表格120所记录的成功连接索引数据122的数目(即存活节点的总数),而imod||S||则为i除以||S||后的余数。以应用服务器C为例,其失败连接索引值等于0,即i=0。因有三个存活节点,故||S||=3,而应用服务器C所对应的imod||S||=0mod||3||=0,FAILOVER(F0)=S0mod||3||=S0。亦即应用服务器C会由成功连接索引值为0的应用服务器A进行故障转移。若以应用服务器D为例,其失败连接索引值等于1,即i=1,故应用服务器D所对应的imod||S||=1,FAILOVER(F1)=S1mod||3||=S1。亦即应用服务器D会由成功连接索引值为1的应用服务器B进行故障转移。另以应用服务器E为例,其失败连接索引值等于2,即i=2,故应用服务器E所对应的imod||S||=2,FAILOVER(F2)=S2mod||3||=S2。亦即应用服务器E会由成功连接索引值为2的应用服务器F进行故障转移。因此,应用服务器C、D及E的网际协议地址IPC、IPD及IPE的使用权会分别被转移至应用服务器A、B及F。
另以图7及图8做说明。其中,图7用以说明在图5的服务器群集100的应用服务器C、D及E已经转变成失败节点的情况下,应用服务器F转变成新的失败节点的过程。图8绘示了图7的服务器群集100所对应的存活节点表格120及失败节点表格130。当存活节点会重建其存活节点表格120及失败节点表格130时,因应用服务器A及B为存活节点,而其顺序为A→B,故应用服务器A及B所对应的成功连接索引值由小到大分别为0和1。应用服务器C、D、E及F则为失败节点,而其顺序为C→D→E→F,故应用服务器C、D、E及F所对应的失败连接索引值由小到大分别为0、1、2和3。当存活节点表格120及失败节点表格130被重建后,各存活节点即可依据存活节点表格120及失败节点表格130并依循上述的方程式FAILOVER(Fi)=Simod||S||,来对属于失败节点的应用服务器C、D、E及F,进行故障转移。以应用服务器C为例,其失败连接索引值等于0,即i=0。因有两个存活节点,故||S||=2,而应用服务器C所对应的imod||S||=0mod||2||=0,FAILOVER(F0)=S0mod||2||=S0。亦即应用服务器C会由成功连接索引值为0的应用服务器A进行故障转移。若以应用服务器D为例,其失败连接索引值等于1,即i=1,故应用服务器D所对应的imod||S||=1,FAILOVER(F1)=S1mod||2||=S1。亦即应用服务器D会由成功连接索引值为1的应用服务器B进行故障转移。另以应用服务器E为例,其失败连接索引值等于2,即i=2,故应用服务器E所对应的imod||S||=0,FAILOVER(F2)=S2mod||2||=S0。亦即应用服务器E会由成功连接索引值为0的应用服务器A进行故障转移。以应用服务器F为例,其失败连接索引值等于3,即i=3,故应用服务器F所对应的imod||S||=1,FAILOVER(F1)=S3mod||2||=S1。亦即应用服务器F会由成功连接索引值为1的应用服务器B进行故障转移。因此,应用服务器C及E的网际协议地址IPC及IPE的使用权会被转移至应用服务器A,而应用服务器D及F的网际协议地址IPD及IPF的使用权会被转移至应用服务器B。
除了以上所述的故障转移以外,本发明的方法还可包括应用服务器的故障恢复(failback)。请参考图9及图10。图9用以说明在图7的服务器群集100的应用服务器E由失败节点转变成存活节点的过程。图10绘示了图9的服务器群集100所对应的存活节点表格120及失败节点表格130。在应用服务器E进行故障恢复的过程中,应用服务器E会恢复与网路110的连接,并自应用服务器A取回网际协议地址IPE的使用权。此时,存活节点表格120所记录的应用服务器A、B及E的成功连接索引值分别为0、1、2,而失败节点表格130所记录的应用服务器C、D及F的失败连接索引值分别为0、1、2。
当存活节点表格120及失败节点表格130被重建后,各存活节点即可依据存活节点表格120及失败节点表格130并依循上述的方程式FAILOVER(Fi)=Simod||S||,来对属于失败节点的应用服务器C、D及F,进行故障转移。以应用服务器C为例,其失败连接索引值等于0,即i=0。因有三个存活节点,故||S||=3,而应用服务器C所对应的imod||S||=0mod||3||=0,FAILOVER(F0)=S0mod||3||=S0。亦即应用服务器C会由成功连接索引值为0的应用服务器A进行故障转移。若以应用服务器D为例,其失败连接索引值等于1,即i=1,故应用服务器D所对应的imod||S||=1,FAILOVER(F1)=S1mod||3||=S1。亦即应用服务器D会由成功连接索引值为1的应用服务器B进行故障转移。另以应用服务器F为例,其失败连接索引值等于2,即i=2,故应用服务器F所对应的imod||S||=2,FAILOVER(F2)=S2mod||3||=S2。亦即应用服务器F会由成功连接索引值为2的应用服务器E进行故障转移。因此,应用服务器C、D及E的网际协议地址IPC、IPD及IPE的使用权会分别被转移至应用服务器A、B及F。
综上所述,本发明公开一种服务器群集的操作方法,采用非协调式架构来进行故障转移。各应用服务器可依目前服务器群集的状态进行故障转移或是故障恢复,并可动态地进行负载平衡,以避免单一节点负载过高。此外,由于存活节点表格与失败节点表格采用一致且唯一的排序方式产生,因此服务器群集中不会有两个以上的节点对同一失败节点进行故障转移,而可确保服务器群集的稳定性与一致性。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种服务器群集的操作方法,该服务器群集包括m个应用服务器,其特征在于,该操作方法包括:
设定该m个应用服务器的所有存活节点的数值相异的成功连接索引值;
设定该m个应用服务器的所有失败节点的数值相异的失败连接索引值;
以及
当该m个应用服务器的第s个应用服务器为失败节点,而对该第s个应用服务器进行故障转移时,根据该第s个应用服务器的失败连接索引值、该m个应用服务器中存活节点的总数以及各存活节点的成功连接索引值,将该第s个应用服务器的网际协议地址的使用权转移至该m个应用服务器的第t个应用服务器;
其中m>1,0<s≤m,0<t≤m,且m、s及t皆为正整数。
2.如权利要求1所述的操作方法,其特征在于,其中根据该第s个应用服务器的失败连接索引值、该m个应用服务器中存活节点的总数以及各存活节点的成功连接索引值,将该第s个应用服务器的网际协议地址的使用权转移至该第t个应用服务器包括:
根据该第s个应用服务器的失败连接索引值除以该总数后所得的余数及各存活节点的成功连接索引值,将该第s个应用服务器的网际协议地址的使用权转移至该第t个应用服务器;
其中该第t个应用服务器的成功连接索引值等于该余数。
3.如权利要求1所述的操作方法,其特征在于,该操作方法另包括:
设定该m个应用服务器的顺序;
其中各存活节点的成功连接索引值以及各失败节点的失败连接索引值依据该顺序设定。
4.如权利要求3所述的操作方法,其特征在于,其中该顺序依据该m个应用服务器的网际协议地址设定。
5.如权利要求3所述的操作方法,其特征在于,其中该顺序依据该m个应用服务器的媒体访问控制地址设定。
6.如权利要求1所述的操作方法,其特征在于,该操作方法另包括:
该m个应用服务器互相发出因特网包探索指令,以分别建立一存活节点表格以及一失败节点表格,其中该存活节点表格用以记录各存活节点的成功连接索引值,该失败节点表格用以记录各失败节点的失败连接索引值。
7.如权利要求1所述的操作方法,其特征在于,该操作方法另包括:
每一应用服务器通过该m个应用服务器之间的TCP/IP协议的连线,判断该每一应用服务器与其他应用服务器之间的连接是否中断,以建立该每一应用服务器的一存活节点表格以及一失败节点表格,其中该存活节点表格用以记录各存活节点的成功连接索引值,该失败节点表格用以记录各失败节点的失败连接索引值。
CN201310669915.7A 2013-11-19 2013-12-10 服务器群集的操作方法 Expired - Fee Related CN104660663B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW102142109 2013-11-19
TW102142109A TWI501092B (zh) 2013-11-19 2013-11-19 伺服器群集之操作方法

Publications (2)

Publication Number Publication Date
CN104660663A true CN104660663A (zh) 2015-05-27
CN104660663B CN104660663B (zh) 2018-01-09

Family

ID=51900145

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310669915.7A Expired - Fee Related CN104660663B (zh) 2013-11-19 2013-12-10 服务器群集的操作方法

Country Status (4)

Country Link
US (1) US9354995B2 (zh)
EP (1) EP2874377B1 (zh)
CN (1) CN104660663B (zh)
TW (1) TWI501092B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105450741A (zh) * 2015-11-16 2016-03-30 苏州大学 分布式存储系统中供应服务器选择和修复数据传输方法
CN105634932A (zh) * 2016-03-16 2016-06-01 腾讯科技(深圳)有限公司 一种消息推送方法、装置和系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6575318B2 (ja) * 2015-11-18 2019-09-18 富士通株式会社 ネットワーク制御装置、クラスタシステムおよび制御プログラム
US10129090B2 (en) * 2016-04-12 2018-11-13 International Business Machines Corporation Site asymmetric topology reconciliation in a computer cluster
US10764144B2 (en) * 2016-10-13 2020-09-01 International Business Machines Corporation Handling a split within a clustered environment
CN113434345A (zh) * 2021-06-15 2021-09-24 浙江大华技术股份有限公司 硬件集群失效管理的方法、集群、设备、平台及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060221815A1 (en) * 2005-03-31 2006-10-05 Fujitsu Limited Failure-monitoring program and load-balancing device
CN101309167A (zh) * 2008-06-27 2008-11-19 华中科技大学 基于集群备份的容灾系统及方法
US7818408B1 (en) * 2008-04-24 2010-10-19 Network Appliance, Inc. Automated virtual interface failover in a mass storage cluster
CN102467508A (zh) * 2010-11-04 2012-05-23 中兴通讯股份有限公司 提供数据库服务的方法及数据库系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6801949B1 (en) * 1999-04-12 2004-10-05 Rainfinity, Inc. Distributed server cluster with graphical user interface
US7020707B2 (en) * 2001-05-30 2006-03-28 Tekelec Scalable, reliable session initiation protocol (SIP) signaling routing node
US6922791B2 (en) * 2001-08-09 2005-07-26 Dell Products L.P. Failover system and method for cluster environment
US7464303B2 (en) * 2005-06-09 2008-12-09 International Business Machines Corporation Autonomically adjusting configuration parameters for a server when a different server fails
US8055933B2 (en) * 2009-07-21 2011-11-08 International Business Machines Corporation Dynamic updating of failover policies for increased application availability

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060221815A1 (en) * 2005-03-31 2006-10-05 Fujitsu Limited Failure-monitoring program and load-balancing device
US7818408B1 (en) * 2008-04-24 2010-10-19 Network Appliance, Inc. Automated virtual interface failover in a mass storage cluster
CN101309167A (zh) * 2008-06-27 2008-11-19 华中科技大学 基于集群备份的容灾系统及方法
CN102467508A (zh) * 2010-11-04 2012-05-23 中兴通讯股份有限公司 提供数据库服务的方法及数据库系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105450741A (zh) * 2015-11-16 2016-03-30 苏州大学 分布式存储系统中供应服务器选择和修复数据传输方法
CN105450741B (zh) * 2015-11-16 2018-09-25 苏州大学 分布式存储系统中供应服务器选择和修复数据传输方法
CN105634932A (zh) * 2016-03-16 2016-06-01 腾讯科技(深圳)有限公司 一种消息推送方法、装置和系统

Also Published As

Publication number Publication date
US9354995B2 (en) 2016-05-31
EP2874377A1 (en) 2015-05-20
US20150143157A1 (en) 2015-05-21
TW201520781A (zh) 2015-06-01
EP2874377B1 (en) 2018-07-11
CN104660663B (zh) 2018-01-09
TWI501092B (zh) 2015-09-21

Similar Documents

Publication Publication Date Title
CN104660663A (zh) 服务器群集的操作方法
CN105281947A (zh) 用于将遗留网络变换成具备sdn能力的网络的技术
US8270306B2 (en) Fault management apparatus and method for identifying cause of fault in communication network
CN104869023B (zh) 一种时间校正方法、装置及系统
CN104811476B (zh) 一种面向应用服务的高可用部署实现方法
CN103078798B (zh) 一种建立路由表的方法和设备
CN104780115A (zh) 云计算环境中负载均衡方法及系统
TW201426286A (zh) 主動式/使用中資訊設備叢集中提供高可用性的方法、裝置與電腦程式產品
CN105099793A (zh) 热备方法、装置及系统
CN103795572B (zh) 主从服务器的切换方法及监控服务器
JP2014027655A (ja) ネットワークデバイスを作製する方法および装置
US11736403B2 (en) Systems and methods for enhanced autonegotiation
CN104717117A (zh) 在虚拟端口通道(vPC)上的以太网光纤通道(FCoE)
CN104202255A (zh) 一种高效多链路数据传输实现方法
CN114371912A (zh) 数据中心的虚拟网络管理方法及数据中心系统
CN104753707A (zh) 一种系统维护方法及网络交换设备
EP3280102B1 (en) Optical path allocation method and apparatus
CN102857436B (zh) 一种基于irf网络的流量传输方法和设备
CN109981437B (zh) 一种基于vpc的多数据中心互通方法及相关设备
WO2016206433A1 (zh) 服务器负载均衡的方法及装置
CN103891204A (zh) 链路倒换的方法和交换设备
CN103200225A (zh) 一种服务器集群中服务的集中管理方法和系统
CN103181187B (zh) 一种获知虚链路状态的方法及设备
CN104104549A (zh) 一种高可用集群存储系统实现方法
US9448548B2 (en) Synchronizing and displaying fault tolerant Ethernet (FTE) status

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180109

Termination date: 20191210

CF01 Termination of patent right due to non-payment of annual fee