CN101055538A - 应用容错和恢复的系统和方法 - Google Patents

应用容错和恢复的系统和方法 Download PDF

Info

Publication number
CN101055538A
CN101055538A CNA2007100913664A CN200710091366A CN101055538A CN 101055538 A CN101055538 A CN 101055538A CN A2007100913664 A CNA2007100913664 A CN A2007100913664A CN 200710091366 A CN200710091366 A CN 200710091366A CN 101055538 A CN101055538 A CN 101055538A
Authority
CN
China
Prior art keywords
application example
shadow
main application
host computer
computer device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007100913664A
Other languages
English (en)
Other versions
CN100461122C (zh
Inventor
J·T·小弗林
M·豪伊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of CN101055538A publication Critical patent/CN101055538A/zh
Application granted granted Critical
Publication of CN100461122C publication Critical patent/CN100461122C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • G06F11/1662Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit the resynchronized component or unit being a persistent storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • G06F16/273Asynchronous replication or reconciliation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种使用在拓扑上位于远程的计算设备进行应用容错和恢复的系统和方法。主计算设备在生产场所运行应用的一个实例(即,主应用实例),活动的备用计算设备在恢复场所运行应用的第二实例(即,影子应用实例),所述恢复场所可以在拓扑上远离所述生产场所。通过在所述主计算设备上运行初始应用“检查点”,之后在所述活动的备用计算设备上运行应用“重新启动”,使所述应用的两个实例变为一致的状态。可以在日志中自动和连续地记录在所述主应用实例中发生的事件,并使用对等远程复制操作将其传输到所述恢复场所,以便使所述应用实例的状态保持一致。

Description

应用容错和恢复的系统和方法
技术领域
本发明一般地涉及改进的数据处理系统和方法。更具体地说,本发明涉及用于将正在运行的应用重定位到在拓扑上位于远程的计算系统的系统和方法。
背景技术
随着当今的社会越来越依赖电子系统执行日常活动,高可用性和灾难恢复在信息技术行业中越来越重要。在这种情况下,能够将正在运行的应用从一个服务器计算设备转移到另一个服务器计算设备,以便确保在服务器计算系统出现故障时可以使用正在运行的应用变得愈加重要。此外,在服务器计算系统出现故障时可以重定位正在运行的应用,以便可以在其他计算系统上恢复所述正在运行的应用很重要。
通过提供可以防止服务器和存储装置出现故障的群集式服务器/存储环境可以实现应用的高可用性。在此类环境中,当出现故障时,将在群集式服务器/存储环境中的冗余服务器和/或存储系统上重新启动应用,其中只有一小段时间使应用不可用。
在某些群集式服务器/存储环境中,提供了热备用服务器/存储系统并使用了日志传送技术。通过日志传送技术,可以通过生产服务器维护应用状态日志,并将所述日志传送到热备用服务器,以使备用服务器的应用状态接近生产服务器上的应用的当前状态。如果需要到备用服务器的故障转移,将只丢失自最后的日志更新传送到备用服务器以来的更新。
应该注意的是,此类服务器群集或存储系统群集在拓扑和地理上是受限制的,使得组成群集的设备必须彼此相对接近。群集式服务器/存储环境不提供任何用于在远程网络拓扑和/或地理距离上提供可用性和灾难恢复的应用独立机制。此外,群集式服务器/存储环境不提供任何此类具有零数据丢失(包括不丢失正在处理的事务)的可用性和恢复机制。
可从VMWare(可从 www.vmware.com/products/vc/vmotion.html获得的VMotionTM的评估副本)获得的VMotionTM软件提供了一种用于在存储区域网络(SAN)中重定位正在运行的应用的已知解决方案。VMotionTM软件允许用户将正在运行的有效虚拟机从一个物理服务器计算系统移动到另一个连接到同一SAN的物理服务器计算系统,同时维护连续的服务可用性。由于SAN中的盘的虚拟化,所以VMotionTM软件能够执行此类重定位。
但是,VMotionTM的受限之处在于,它需要将整个虚拟机(其可以包括操作系统和多个正在运行的应用)移动到新的物理服务器计算设备。VMotionTM软件没有将单个应用从一个物理服务器计算设备移动到另一个物理服务器计算设备的能力。
此外,VMotionTM的受限之处在于,只能在同一SAN中将虚拟机从一个服务器计算设备移动到另一个服务器计算设备。因此,VMotionTM不能用于将虚拟机移动到SAN之外的其他服务器计算设备。这实质上对可以使用VMotionTM软件产品将虚拟机移动到其的服务器计算设备施加了网络拓扑和地理限制。
另一个用于提供正在运行的应用的高可用性和灾难恢复的已知解决方案是由Meiosys公司(最近被国际商业机器公司收购)提供的MetaClusterTM UC 3.0软件产品。如可从 www.prnewswire.com的PR新闻专线访问的文章“Meiosys Releases MetaCluster UC Version 3.0(Meiosys发布MetaCluster UC 3.0版)”中所述,MetaClusterTM软件产品基于面向服务的体系结构并体现了最新一代的细粒度虚拟化技术,使得动态数据中心能够在所有负载条件下在应用无关的基础上提供服务级别保持和基础设施优化。
不同于粗粒度虚拟机技术和虚拟机移动技术(如上述的VMotionTM,其在操作系统级别运行并且一次只能移动整个虚拟机),MetaClusterTM软件产品在操作系统与应用之间的中间件层运行。MetaClusterTM提供了围绕每个应用的容器技术,为应用和应用过程提供资源隔离和机器到机器移动。
MetaClusterTM软件产品的应用虚拟化和容器技术允许跨物理和虚拟机来重定位应用。MetaClusterTM还提供了基本的业务智能,其允许企业设置阈值并定义规则以便管理从机器到机器重定位应用和应用过程,以解决高可用性和使用业务的情况。
为业务关键应用部署MetaClusterTM UC 3.0允许高效地虚拟化应用,使得性能影响并不明显(通常在1%以下)。然后可以将虚拟化后的应用移动到从资源优化和服务质量的观点来看最适合的基础设施。可以动态地重新分配服务器容量以实现高级别的利用率而不损害性能。由于MetaClusterTM UC 3.0允许在重定位期间保持应用的状态和上下文,所以重定位对于应用的用户来说是快速和透明的。
MetaClusterTM UC 3.0使用透明的“检查点和重新启动”功能在服务器群集中执行此类应用重定位。当生成检查点时,将保存特定时间点的用于重新创建正在运行的应用的完整状态、连接和上下文的必要有状态数据和元数据。然后可以将此检查点提供给与原始服务器计算设备在同一群集中的其他服务器计算设备。向其提供了检查点的服务器计算设备然后可以使用检查点信息来重新启动应用(使用从群集的共享存储系统获取的应用数据),并且在新的服务器计算设备上重新创建应用的状态、连接和上下文。
在由Meiosys提供的其他产品(即MetaClusterTM FT)中,提供了“记录和重播”技术,其中将在运行时持续影响应用行为的事件以日志文件的形式记录到盘,然后在出现故障时可以重播这些事件。这样,MetaClusterTMFT的“记录和重播”技术允许在出现故障时,在同一服务器群集的冗余应用实例上重播记录的事件,以便提供故障转移容错。例如,可以从月度的www.hoise.com/primeur/05/articles/monthly/AE-PR-05-05-46.html访问的“Meiosys breaks technology barrier for cost-effective faulttolerance technology designed to be embedded in OEM platformsolutions(Meiosys突破了旨在嵌入OEM平台解决方案的成本有效容错技术的技术障碍)”和可以从www2.laas.fr/IFIPWG/Workshops&Meetings/47/WS/04-Rougier.pdf访问的在波多黎各的第47届IFIP WG10.4会议的演示材料中,找到有关MetaClusterTM FT(先前称为“Meiosys FT”)的“记录和重播”方面的信息。
虽然MetaClusterTM UC 3.0和MetaClusterTM FT允许重定位和故障转移同一群集中的单个应用(与需要重定位整个虚拟机相反),但是MetaClusterTM UC和FT仍限于服务器计算设备的本地化的群集。就是说,MetaClusterTM依靠所有可以访问共享存储系统的服务器计算设备的能力来访问应用数据。因此,MetaClusterTM UC和FT不允许将正在运行的应用移动或重定位到服务器群集之外,或将应用实例故障转移到服务器群集之外。这再次限制了可以将正在运行的应用重定位到其和可以向其执行故障转移的计算设备的网络拓扑和地理位置。
发明内容
鉴于以上所述,具有一种用于使用在拓扑和/或地理上位于远程的计算设备来提供应用容错和恢复的系统、方法和计算机程序产品是有利的。此外,具有一种用于将正在运行的应用重定位到在拓扑上位于远程的、在计算设备(所述正在运行的应用先前存在于其中)的存储区域网络或群集之外的计算设备是有利的。此外,具有此类保持生产计算设备与位于远程的计算设备之间的同步以便不会出现数据丢失(包括不丢失与正在处理的事务有关的数据)的容错和重定位机制是有利的。下文描述的示例性实施例提供了这样的系统、方法和计算机程序产品。
应该注意的是,在此提供的示例性实施例的描述提到计算设备是“在拓扑上位于远程”。在本说明中,“在拓扑上位于远程”指计算系统在从其重定位正在运行的应用的计算设备的群集或存储区域网络之外。在许多情况下,在拓扑上位于远程的计算系统同样是在地理上位于远程的,但是这不要求该计算系统在拓扑上位于远程。相反,就连接不同计算设备的网络拓扑而言,在拓扑上位于远程的计算系统只需是位于远程的。
根据示例性实施例的机制,主计算设备在生产场所运行应用的一个实例(即,主应用实例),活动的备用计算设备在恢复场所运行应用的第二实例(即,影子应用实例),所述恢复场所可以在拓扑上远离所述生产场所。所述主计算设备和活动的备用计算设备具有相同的虚拟网络地址,这样两个计算设备都可以通过网络地址虚拟化从网络接收相同的输入,如本领域中通常公知的那样。
通过在主计算设备上运行初始应用“检查点”,之后在活动的备用计算设备上运行应用“重新启动”,使所述应用的两个实例变为一致的状态。在主计算设备上生成主应用实例的“检查点”和在活动的备用计算设备上“重新启动”影子应用实例可以利用在共同受让和共同未决的美国专利申请No.11/340,813(代理案号No.SJ0920050108US1,2006年1月25日申请,其全部内容在此引入作为参考)中描述的机制。例如,生成检查点可以涉及将主计算设备上的主应用实例的应用数据复制到在拓扑上位于远程的计算设备的存储系统。可以使用镜像技术(例如,对等远程复制操作)来执行应用数据的复制。
除了复制应用数据之外,还可以生成主应用实例的有状态检查点并将其存储在存储介质中。所述有状态检查点包括一组元数据,该组元数据描述了在生成所述有状态检查点时,在特定时间点的主应用实例的当前状态。优选地,与复制应用数据基本同时地生成有状态检查点,以便确保由有状态检查点元数据表示的应用的状态与应用数据匹配。
可以以与应用数据相似的方式将有状态检查点元数据复制到与在拓扑上位于远程的计算设备关联的相同或不同存储系统。例如,可以对检查点元数据执行对等远程复制操作以将检查点元数据复制到在拓扑上位于远程的存储系统。
在一个示例性实施例中,可以使用MetaClusterTM产品生成主应用实例的有状态检查点元数据,好像在服务器计算设备的本地群集中重定位应用那样。在此类示例性实施例中,可以使用可从纽约阿蒙克的国际商业机器公司购买的对等远程复制(PPRC)产品(也称为Metro MirrorTM)将有状态检查点元数据和应用数据重定位到在拓扑上位于远程的计算设备。
此外,在另一个实施例中,可以使用也可从国际商业机器公司购买的Global MirrorTM产品(该产品实现保证一致的异步复制方法)来执行重定位。Global MirrorTM实际上是可从国际商业机器公司购买的MetroMirrorTM产品、Global CopyTM产品和FlashCopyTM产品的组合。GlobalMirrorTM使用Global Copy最大化数据复制吞吐量并动态切换到同步模式(Metro Mirror)以达到一致状态,使用FlashCopyTM保持一致状态,以及切换回Global CopyTM(也称为PPRC-XD)。Metro MirrorTM没有数据丢失,但限于约300公里的范围,而Global MirrorTM存在很小程度的数据丢失,但没有距离限制。
生成在主计算设备上运行的主应用实例的初始检查点,并将此检查点的有状态检查点元数据和应用数据复制到在拓扑上位于远程的计算设备之后,使用所述应用数据和有状态检查点元数据来“重新启动”影子应用实例。这实际上使影子应用实例具有与主应用实例相同的状态和应用数据,由此将影子应用实例和主应用实例同步。
在同步应用实例以便它们彼此具有一致的状态后,可以将主应用实例中发生的事件连续地记录在日志中,然后在恢复场所重播所述事件,以使应用实例的状态保持一致。所述日志可以是到影子应用实例的高速管道、共享文件系统上的日志文件、自动复制并在恢复场所应用的日志文件等。
在一个示例性实施例中,可以在将日志事件数据写入生产场所的日志存储装置或在关闭日志文件时,通过对日志事件数据自动执行对等远程复制操作来提供应用实例之间的连续一致性。就是说,例如,可以将日志事件数据写入生产场所的日志存储装置内的日志文件,然后使用MetroMirrorTM或Global MirrorTM操作将所述数据自动复制到与恢复场所关联的存储系统。备选地,可以将日志事件数据写入生产场所的日志存储装置中的日志文件,然后在关闭日志文件时将所述数据复制到恢复场所处的日志存储装置。
在任一实施例中,最终都将关闭日志,如在日志已满或在某些预定时间间隔,在所述时间,将事件的记录从第一日志文件切换到第二日志文件。可以将日志的关闭告知恢复场所中的活动备用计算设备,此刻可以由影子应用实例重播第一日志文件中记录的事件,而使用第二日志文件继续事件记录。使用第二日志文件的事件记录同样被自动复制到与恢复场所关联的存储系统。
影子应用实例优选地禁用其所有的网络输出(即影子套接字),以避免在网络上与主应用实例出现冲突(如消息重复)。在生产场所的主应用实例出现故障并且影子应用实例必须接管出现故障的主应用实例的情况下,可以激活影子应用实例的网络输出。
当在生产场所出现主应用实例故障时,活动的备用计算设备将检测到主应用实例的丢失。影子应用实例处于与最后重播的记录事件对应的状态,这通常发生在将日志例如从第一日志文件切换到第二日志文件时。此时,通过使用对等复制操作连续自动复制的第二日志文件包含自日志切换以来主应用实例中发生的所有事件。因此,影子应用实例只需重播第二日志中的事件,以便使影子应用实例成为与主应用实例的状态对应的、恰好在主应用实例出现故障之前的状态。然后可以启用网络输出(即影子套接字),使得影子应用实例现在可以生成通过网络发送到客户机设备的输出。这样,影子应用实例便可以接管主应用实例的功能而没有数据丢失。
在一个示例性实施例中,提供了包括具有计算机可读程序的计算机可用介质的计算机程序产品。当所述计算机可读程序在备用计算设备上执行时,将导致所述备用计算设备从在拓扑上远离所述备用计算设备的主计算设备自动地接收写入与所述主计算设备关联的第一日志数据结构的主应用实例的事件数据。所述计算机可读程序还可以导致所述计算设备将所述事件数据存储在与所述备用计算设备和影子应用实例关联的第二日志数据结构中。所述主应用实例和影子应用实例可以是同一应用的实例。所述计算机可读程序还可以导致所述计算设备通过重播与所述影子应用实例关联的第二日志中的事件来更新所述影子应用实例的状态,由此使所述影子应用实例的状态变为与所述主应用实例一致的状态。此外,所述计算机可读程序还可以导致所述计算设备使用所述影子应用实例将所述主应用实例重定位到所述备用计算设备以响应所述主应用实例的故障。
所述计算机可读程序可以导致所述备用设备更新所述影子应用实例的状态,以响应从所述主计算设备接收到指示日志切换事件的日志切换事件消息。所述计算机可读程序可以导致所述备用计算设备在接收所述日志切换事件消息之后,将接收的事件数据存储到与所述影子应用实例关联的第三日志数据结构。所述计算机可读程序还可以导致所述备用计算设备通过检测所述主计算设备上的所述主应用实例的故障,以及重播所述第三日志数据结构中的事件以响应检测到所述主应用实例的所述故障,来将所述主应用实例重定位到所述备用计算设备。
所述主计算设备和备用计算设备具有相同的虚拟网络地址,在重定位所述主应用实例之前,启用了所述主应用实例的输入和输出套接字,但只启用了所述影子应用实例的输入套接字。
所述计算机可读程序还可以导致所述备用计算设备检测所述主计算设备上的所述主应用实例的故障,并且重播所述第三日志数据结构中的事件以响应检测到所述主应用实例的所述故障,由此使所述影子应用实例成为与所述主应用实例一致的、恰好在所述主应用实例的所述检测到的故障之前的状态。所述计算机可读程序还启用所述影子应用实例的输出套接字以响应检测到所述主应用实例的所述故障。
所述计算机可读程序还可以导致所述备用计算设备在从所述主计算设备接收事件数据之前,将所述影子应用实例的状态与所述主应用实例的状态同步。所述计算机可读程序可以导致所述备用计算设备通过以下操作将所述影子应用实例的状态与所述主应用实例的状态同步:从所述在拓扑上位于远程的主计算设备接收所述主应用实例的应用数据,以及接收包括检查点元数据的应用检查点,所述检查点元数据代表与所述应用数据的副本相同的时间点。所述计算机可读程序可以使用所述应用数据和检查点元数据来初始化所述备用计算设备上的所述影子应用实例。
所述主计算设备可以自动地将所述主应用实例中发生的事件的事件数据写入所述第一日志数据结构,并在将所述事件数据写入所述第一日志数据结构时,自动地将所述事件数据复制到所述第二日志数据结构。可以通过由所述主计算设备执行的对等远程复制操作来自动接收所述事件数据。
所述备用计算设备可以在地理上远离所述主计算设备。所述备用计算设备可以在所述主计算设备的群集或存储区域网络之外。在另一个示例性实施例中,提供了包括处理器和连接到所述处理器的存储器的备用计算设备。所述存储器可以包含指令,当所述指令由所述处理器执行时,将导致所述处理器执行上述与计算机程序产品的示例性实施例相关的操作中的各种操作和操作组合。
在另一个示例性实施例中,提供了一种在备用计算设备中用于提供影子应用实例以便重定位主应用实例的方法。所述方法可以包括上述与计算机程序产品的示例性实施例相关的操作中的各种操作和操作组合。
本发明的这些和其他特征和优点将在以下详细说明中进行描述,或者鉴于以下详细说明,本发明的这些和其他特征和优点将对本领域的技术人员变得显而易见。
附图说明
在所附权利要求中说明了被认为是本发明特性的新颖特征。但是,当结合附图阅读时,通过参考以下对示例性实施例的详细说明,可以最佳地理解发明本身及其优选使用方式、进一步的目的和优点,这些附图是:
图1是其中可以实现示例性实施例的示例性方面的分布式数据处理系统的示例性方块图;
图2是其中可以实现示例性实施例的示例性方面的服务器计算设备的示例性方块图;
图3是示出了根据一个示例性实施例的对等远程复制操作的示例性方块图;
图4是示出了根据一个示例性实施例的用于维护两个在拓扑上位于远程的相关应用实例之间的连续一致的应用状态的操作的示例性方块图;
图5是根据一个示例性实施例的主容错引擎的主操作组件的示例性方块图;
图6是根据一个示例性实施例的远程容错引擎的主操作组件的示例性方块图;
图7是示出了根据一个示例性实施例的用于维护在拓扑上位于远程的两个相关应用实例之间的连续一致状态的示例性操作的流程图;以及
图8是示出了根据一个示例性实施例的用于执行从主应用实例到影子应用实例的故障转移操作的示例性操作的流程图。
具体实施方式
在此说明的示例性实施例提供了用于维护在活动备用计算设备中运行的影子应用实例的机制,所述活动备用计算设备在拓扑上并且通常在地理上远离(即,不在同一存储区域网络或群集内)运行同一应用的主应用实例的主计算设备。这样,优选地在分布式数据处理环境中实现示例性实施例的机制。
在以下说明中,将根据分布式数据处理环境来描述示例性实施例的机制,在所述环境中提供了多个可以通过一个或多个网络和通信链路互相通信的数据处理系统。图1和2提供了其中可以实现示例性实施例的各方面的数据处理环境的实例。所示出的数据处理环境只是示例性的,并且未非旨在声明或暗示对其中可以实现示例性实施例的示例性方面的数据处理环境的类型或配置的任何限制。在不偏离本发明的精神和范围的情况下,可以对图1和2中示出的数据处理环境做出许多修改。
现在参考附图,图1示出了其中可以实现本发明的数据处理系统100的网络的图形表示。网络数据处理系统100包含局域网(LAN)102和广域数据网络130,所述网络是用于提供网络数据处理系统100中连接在一起的多个设备和计算机之间的通讯链路的介质。局域网102和广域数据网络130可以包括诸如有线通信链路、无线通信连接、光缆之类的连接。
在示出的实例中,服务器计算设备102-105连接到局域网102。例如,服务器计算设备102-105可以包括存储区域网络(SAN)或服务器群集120。SAN和服务器群集通常是本领域所公知的,因此,将不在此提供对SAN/群集120的更详细的说明。
除了服务器计算设备102-105之外,客户机112也连接到局域网102。客户机108和110连接到广域数据网络130。这些客户机108、110和112可以例如是个人计算机、工作站、应用服务器等。在示出的实例中,服务器计算设备102-105可以存储、跟踪和检索客户机108、110和112的数据对象。客户机108、110和112是服务器计算设备102-105的客户机,因此可以通过局域网102和/或广域数据网络130与服务器计算设备102-105通信,以便在服务器计算设备102-105上运行应用和与正在运行的应用联系,并从这些服务器计算设备102-105获取数据对象。网络数据处理系统100可以包括其他服务器、客户机和其他未示出的设备。
广域数据网络130连接到局域网102。在示出的实例中,广域数据网络130可以是因特网,其代表使用传输控制协议/网际协议(TCP/IP)协议套件来彼此通信的世界范围内的网络和网关的集合。在因特网的中心是主节点或主机之间的高速数据通信线路的主干,其包括数以千计的路由数据和消息的商业、政府、教育计算机系统和其他计算机系统。
当然,广域数据网络130还可以实现为多种不同类型的网络,例如,内联网、其他局域网(LAN),广域网(WAN)等。图1只是作为实例,并非旨在声明或暗示对在此说明的示例性实施例的任何体系结构限制。
应该注意,群集中的服务器通常使用因特网来彼此通信,使用TCP/IP用于消息传送业务。参与镜像的存储控制器(如下面说明的Metro MirrorTM或Global MirrorTM)通常使用FICON通道命令、SCSI命令或TCP/IP通过单独的存储网络进行通信。
服务器计算设备140连接到广域数据网络130并具有关联的存储系统150。存储系统150示为与服务器计算设备140直接相连,但是备选地,其可以由服务器计算设备140通过广域数据网络130或其他网络(未示出)来间接访问。服务器计算设备140在拓扑上远离SAN/群集120。就是说,服务器计算设备140不是SAN/群集120的一部分。此外,服务器计算设备140可以在地理上远离SAN/群集120。
在一个示例性实施例中,服务器计算设备140作为SAN/群集120中的一个或多个服务器计算设备102-105的活动备用服务器计算设备来运行。因此,服务器计算设备140在广域数据网络130上与SAN/群集120中的服务器计算设备102-105具有相同的虚拟网络地址。此类网络地址(如网际协议(IP)地址)的虚拟化通常是本领域所公知的,因此未在此提供详细的说明。说出以下事项就足够了:通过虚拟化服务器计算设备102-105和140的网络地址,定向到或来自这些服务器计算设备102-105和140的网络业务可以使用与提供的用于将此类业务重定向到适当服务器计算设备102-105和140的机制相同的虚拟网络地址。
以下描述的示例性实施例通过使用在拓扑上位于远程的服务器计算设备140上的影子应用实例,提供了用于故障恢复SAN/群集120的一个或多个服务器计算设备102-105上的正在运行的应用实例的机制。应当理解,虽然将根据SAN/群集120上正在运行的应用实例的故障恢复来描述示例性实施例,但是所述示例性实施例和本发明并不限于此。相反,替代SAN/群集120,单个服务器计算设备或甚至客户机计算设备都可以是正在运行的主应用实例的源,使该应用实例的状态与在拓扑上位于远程的计算设备(服务器或客户机计算设备)上的相应影子应用实例一致,以便在不偏离本发明的精神和范围的情况下提供容错。
现在参考图2,图2示出了根据本发明的优选实施例的可以作为服务器计算设备(例如图1中的一个或多个服务器计算设备102-105或服务器计算设备140)实现的数据处理系统的方块图。数据处理系统200可以是包括连接到系统总线206的多个处理器202和204的对称多处理器(SMP)系统。备选地,可以使用单处理器系统。另外连接到系统总线206的是提供到本地存储器209的接口的存储器控制器/高速缓存208。I/O总线桥210连接到系统总线206并提供了到I/O总线212的接口。存储器控制器/高速缓存208和I/O总线桥210可以如图所示的那样集成。
连接到I/O总线212的外围组件互连(PCI)总线桥214提供了到PCI本地总线216的接口。可以将多个调制解调器连接到PCI本地总线216。典型的PCI总线实现将支持四个PCI扩展槽或附加连接器。可以通过经由附加连接器连接到PCI本地总线216的调制解调器218和/或网络适配器220提供到图1中的客户机102-112和/或其他连接网络的设备的通信链路。
其他PCI总线桥222和224提供了其他PCI本地总线226和228的接口,通过所述总线可以支持其他调制解调器或网络适配器。以这种方式,数据处理系统200允许到多个网络计算机的连接。还可以如图所示直接或间接地将存储器映射的图形适配器230和硬盘232连接到I/O总线212。
本领域的技术人员将理解,图2中示出的硬件可以有所变化。例如,除了所示的硬件或替代所示的硬件,还可以使用其他外围设备(如光盘驱动器等)。所示实例并非旨在暗示与本发明有关的体系结构限制。
例如,图2中示出的数据处理系统可以是IBM eServer pSeries系统,该系统是纽约阿蒙克的国际商业机器公司的产品,运行高级交互执行体(AIX)操作系统或LINUX操作系统。
再次参考图1,对于示例性实施例的机制,希望为在SAN/群集120的一个或多个服务器计算设备102-105上运行的应用实例提供高可用性和灾难恢复。具体地说,希望具有在拓扑和/地理上位于远程的服务器计算设备140,所述设备作为活动备用服务器计算设备进行操作,运行在一个或多个服务器计算设备102-105上正在运行的同一应用的影子应用实例。以这种方式,在拓扑和/或地理上位于远程的服务器计算设备140可以作为一个或多个服务器计算设备102-105的“热插拔”服务器计算设备进行操作,尽管它远离SAN/群集120。可以执行此类“热插拔”而不会在该过程中丢失数据。
如上所述,公知的机制(如VMotionTM和MetaClusterTM)只允许本地拓扑(如SAN/群集120)内正在运行的应用的重定位和故障转移。通过这些公知的机制,可以将正在运行的应用重定位或故障转移到其的计算设备必须可以访问同一共享存储系统,由此将重定位限于本地拓扑和地理区域。所述的公知机制不允许将正在运行的应用重定位/故障转移到在拓扑和/或地理上位于远程的计算设备。
借助示例性实施例的机制,主计算设备(如服务器102)在生产场所运行应用的一个实例(即主应用实例),活动的备用计算设备(如服务器140)在可能在拓扑和/或地理上远离生产场所的恢复场所处运行应用的第二实例(即影子应用实例)。主计算设备102和活动的备用计算设备140具有相同的虚拟网络地址,以便两个计算设备可以通过网络地址虚拟化从网络接收相同的输入,这通常在本领域是公知的。
通过在主计算设备102上运行初始应用“检查点”,之后在活动的备用计算设备140上运行应用“重新启动”,使应用的两个实例变为一致的状态。在主计算设备102上生成主应用实例的“检查点”和在活动的备用计算设备140上“重新启动”影子应用实例可以利用在共同受让和共同未决的美国专利申请No.11/340,813(2006年1月25日申请,其全部内容在此引入作为参考)中描述的机制。例如,生成检查点可以涉及将主计算设备102上的主应用实例的应用数据复制到在拓扑上位于远程的计算设备140的存储系统。可以使用镜像技术(例如,对等远程复制操作)来执行应用数据的复制。
除了复制应用数据之外,还可以生成主应用实例的有状态检查点并将其存储在存储介质中。所述有状态检查点包括一组元数据,该组元数据描述了在生成所述有状态检查点时,在特定时间点的主应用实例的当前状态。优选地,与复制应用数据基本同时地生成有状态检查点,以便确保由有状态检查点元数据表示的应用的状态与应用数据匹配。
可以以与应用数据相似的方式将有状态检查点元数据复制到与在拓扑上位于远程的计算设备140关联的相同或不同存储系统。例如,可以对检查点元数据执行对等远程复制操作以将检查点元数据复制到在拓扑上位于远程的存储系统。
在一个示例性实施例中,可以使用MetaClusterTM产品生成主应用实例的有状态检查点元数据,好像在服务器计算设备的本地群集中重定位应用那样。在此类示例性实施例中,可以使用对等远程复制操作(如由可从纽约阿蒙克的国际商业机器公司购买的产品Metro MirrorTM或GlobalMirrorTM提供的操作),将有状态检查点元数据和应用数据重定位到在拓扑上位于远程的计算设备。
例如,可以在可从PR新闻专线网站(www.prnewswire.com)访问的题为“Meiosys Releases MetaCluster UC Version 3.0(Meiosys发布MetaCluster UC版本3.0)”和“Meiosys Relocates MultiTier ApplicationWithout Interruption of Service(Meiosys重定位多层应用而不中断服务)”的文章中找到有关MetaClusterTM产品的信息。可以在美国专利申请公开No.2005/0251785中找到有关MetaClusterTM和在群集中复制应用状态的能力的其他信息。可以例如在可从国际商业机器公司官方网站(www.ibm.com)访问的作者为Castets等人的标题为“IBM TotalStorageEnterprise Storage Server PPRC Extended Distance(IBM TotalStorageEnterprise Storage Server PPRC扩展的距离)”的红皮书中获得有关示例性对等远程复制的信息。这些文档在此引入作为参考。
生成在主计算设备102上运行的主应用实例的初始检查点,并将此检查点的有状态检查点元数据和应用数据复制到在拓扑上位于远程的计算设备140之后,使用所述应用数据和有状态检查点元数据来“重新启动”影子应用实例。这实际上使影子应用实例具有与主应用实例相同的状态和应用数据,由此将影子应用实例和主应用实例同步。
在同步应用实例以便它们彼此具有一致的状态后,可以将主应用实例中发生的事件连续地记录在日志中,然后在恢复场所重播所述事件,以使应用实例的状态保持一致。所述日志可以是到影子应用实例的高速管道、共享文件系统(未示出)上的日志文件、自动复制并在恢复场所应用的日志文件等。例如,可以以与先前介绍的MetaClusterTM FT的记录和重播技术中提供的方式相似的方式来执行在日志中记录事件。
在一个示例性实施例中,可以在将日志事件数据写入生产场所的日志存储装置或在关闭日志文件时,通过对日志事件数据自动执行对等远程复制操作(例如,使用Metro MirrorTM或Global MirrorTM)来提供应用实例之间的连续一致性。就是说,例如,可以将日志事件数据写入生产场所的日志存储装置内的日志文件,然后使用对等远程复制操作将所述数据自动复制到与恢复场所关联的存储系统。备选地,可以将日志事件数据写入生产场所的日志存储装置中的日志文件,然后在关闭日志文件时将所述数据复制到恢复场所处的日志存储装置。
在任一实施例中,最终都将关闭日志,如在日志已满或在某些预定时间间隔,在所述时间,将事件的记录从第一日志文件切换到第二日志文件。可以将日志的关闭告知恢复场所中的活动备用计算设备,此刻可以由影子应用实例重播第一日志文件中记录的事件,而使用第二日志文件继续事件记录。使用第二日志文件的事件记录同样被自动复制到与恢复场所关联的存储系统。
影子应用实例优选地禁用其所有的网络输出(即影子套接字),以避免在网络上与主应用实例出现冲突(如消息重复)。例如,此类套接字禁用可以包括创建套接字并然后将其关闭。但是,在恢复场所的活动备用计算设备上,只禁用(关闭)套接字输出,而启用套接字输入。这允许由恢复场所处的活动备用计算设备重播所有记录的日志,但是不向网络发送出任何消息。生产场所计算设备从网络客户机接收输入消息(事件),而活动的备用计算设备从生产场所计算设备接收记录的事件日志,但是只有生产场所计算设备启用了套接字输出。
在生产场所的主应用实例出现故障并且影子应用实例必须接管出现故障的主应用实例的情况下,可以激活影子应用实例的网络输出。在生产场所的主应用实例出现故障时,活动的备用计算设备140检测到主应用实例的丢失。检测主应用实例的丢失可以例如基于未能从生产场所计算设备接收到心跳信号。可以在不偏离本发明的精神和范围的情况下,使用其他用于检测主应用实例故障的机制。
此刻,影子应用实例处于与最后重播的记录事件对应的状态,这通常发生在将日志例如从第一日志文件切换到第二日志文件时。此时,通过使用对等复制操作连续自动复制的第二日志文件包含自日志切换以来主应用实例中发生的所有事件。因此,影子应用实例只需重播第二日志中的事件,以便使影子应用实例成为与主应用实例的状态对应的、恰好在主应用实例出现故障之前的状态。然后可以启用网络输出(即影子套接字),使得影子应用实例现在可以生成通过网络发送到客户机设备的输出。由于活动的备用计算设备140具有与主计算设备102相同的虚拟网络地址,所以活动的备用计算设备140可以从客户机设备接收输入。以这种方式,影子应用实例便可以接管主应用实例的功能而没有数据丢失。
如上所述,通过示例性实施例,将主应用实例中发生的事件的日志自动并连续地传输到活动的备用计算设备140,以便使在活动的备用计算设备140上运行的影子应用实例的状态与在主计算设备102上运行的主应用实例的当前状态保持一致。借助远程复制操作(如对等远程复制操作)来帮助此自动和连续的传输。
图3是示出根据一个示例性实施例的对等远程复制操作的示例性方块图。在示出的实例中,Metro MirrorTM产品用于执行对等远程复制操作,虽然本发明并不限于使用Metro MirrorTM或Global MirrorTM。相反,可以使用任何允许将数据和元数据远程复制到在拓扑上位于远程的存储系统的机制而不偏离本发明的精神和范围。
使用Global MirrorTM作为用于执行数据和元数据的远程复制的一个示例性实施例的代表,Global MirrorTM允许将应用系统数据从一个场所(也称为生产场所)影射到第二个场所(也称为恢复场所)。在生产场所保存数据的逻辑卷称为主卷,在恢复场所保存镜像数据的对应逻辑卷称为辅助卷。在一个示例性实施例中,可以使用光纤通道协议(FCP)链路来提供主卷和辅助卷之间的连接。
图3示出了以同步模式(即,对等远程复制同步(PPRC-SYNC))操作Global MirrorTM时写入操作的顺序。如图3所示,在此同步类型的操作中,对生产场所主卷330所作的更新被同步影射到恢复场所的辅助卷330。由于这是同步的解决方案,所以对于在计算设备310上运行的应用,只有在两个副本(主和辅助)上都确保了写更新后,才将所述写入看作完成。
由于在PPRC-SYNC操作中,直到在主卷和辅助卷320和330两者中同步地完成更新后,应用才会获得“写入完成”条件,所以从应用的角度,恢复场所辅助卷330上的数据是始终与主卷320上的数据一致的实时数据。
此特性的含义之一是,在正常的PPRC-SYNC操作中,将相关写入以与将其应用于主卷320的相同顺序应用于辅助卷330。从应用一致性的角度,这在恢复时非常重要。PPRC-SYNC可以在恢复场所提供连续的数据一致性,而不需要定期中断应用以建立一致性检查点。从应用的角度,这是始终在恢复位置具有有效数据的无中断的方法。
虽然在图3中示出了同步PPRC操作,但是应当理解,示例性实施例的机制可以等同地应用于同步和异步远程复制操作。在异步远程复制操作中,在辅助卷330中提交数据之前,可以从主卷320返回“写入完成”。实质上,根据此处的示例性实施例的异步远程复制操作,在拓扑上位于远程的计算设备上重播任何日志事件之前,在拓扑上位于远程的计算设备的存储系统中的日志需要与主计算设备处的日志处于数据一致的状态,
这样,通过示例性实施例的对等远程复制操作,对与主计算设备102关联的存储系统上存在的日志执行写操作时,同样对与在拓扑上位于远程的计算设备140关联的存储系统中的对应日志执行对应的写操作。可以按照同步或异步的方式执行所述操作。以这种方式,一致地维护生产场所和恢复场所中的日志。
如上所述,执行此类日志写入的对等远程复制操作的其他备选方式是使用例如连接到广域数据网络130的共享存储系统。在此类实施例中,主计算设备102和在拓扑上位于远程的计算设备140都必须对共享存储系统和共享存储系统上维护的日志具有访问权限。主机算设备102可以写入共享存储系统的日志,并且在拓扑上位于远程的计算设备140可以读取这些日志,以便重播日志事件以使影子应用实例成为与主应用实例一致的状态。例如,当主计算设备102将日志切换事件发信号通知在拓扑上位于远程的计算设备140时,可以发生此类读取和重播事件。
因此,通过示例性实施例,生成初始检查点并将其用于使主应用实例的状态与位于远程的影子应用实例的状态同步。此后,自动和连续地维护日志,使其在主应用实例位置和位于远程的影子应用实例之间一致。
定期地,将关闭日志并将事件的记录切换到辅助日志,以便可以将初始日志中记录的事件用于更新影子应用实例的状态。可以执行此从关闭的日志重播事件而不中断事件的连续记录。可以按照相反的方向根据需要的次数来重复初始日志与辅助日志之间的切换,以有助于连续记录事件和更新应用状态。
当主应用实例出现故障时,通过从当前用于记录事件的日志重播事件,可以自动更新影子应用实例的状态。这使影子应用实例的状态变为出现故障的主应用实例的当前状态。然后可以启用影子应用实例的网络输出,由此影子应用实例可以接管主应用实例的操作。所有这些操作都通过在拓扑和/或地理上远离主计算设备(主应用实例正在其上运行)的计算设备上运行的影子应用实例来完成。
图4是示出了根据一个示例性实施例的用于维护两个在拓扑上位于远程的相关应用实例之间的连续一致应用状态的操作的示意性方块图。如图4所示,在生产场所450提供了主计算设备410,在恢复场所460提供了活动的备用计算设备420。恢复场所460在拓扑和/或地理上远离生产场所450。主计算设备410具有关联的连接到主计算设备410的存储设备A、B和C。在示出的实例中,数据存储设备A存储在主计算设备410上运行的主应用实例412的应用数据。数据存储设备B存储有状态检查点元数据以及在主应用实例412的运行期间发生的事件的一个或多个日志。数据存储设备C也存储在主应用实例412的运行期间发生的事件的一个或多个日志。数据存储设备C中的日志为辅助日志,当关闭存储设备B中的初始日志时,将事件的记录切换到所述辅助日志。当主应用实例根据需要运行时,可以在存储设备B和C中的日志之间进行此类来回切换。
活动的备用计算设备420连接到存储设备D、E和F。存储设备D、E和F是存储设备A、B和C的镜像。因此,存储设备D存储主应用实例412的应用数据。存储设备E存储主应用实例的检查点元数据以及一个或多个在应用实例412中发生的事件的日志。存储设备F存储在应用实例412中发生的事件的辅助日志。
如上所述,可以使用对等远程复制操作,将存储在生产场所450处的数据存储设备A、B和C中的数据传输到位于远程的恢复场所460处的数据存储设备D、E和F。具体地说,PPRC用于将主应用实例412的初始应用数据从数据存储设备A复制到数据存储设备D。PPRC还用于将初始有状态检查点数据从数据存储B复制到数据存储E。此后,PPRC用于将写入数据自动和连续地复制到存储在数据存储设备B和C中的日志以及复制到数据存储设备E和F。
主计算设备410包括根据与主计算设备410有关的示例性实施例的负责执行操作的主容错引擎414。活动的备用计算设备420包括根据与活动备用计算设备420有关的示例性实施例的负责执行操作的远程容错引擎424。
在操作中,例如,初始化主计算设备410上的主应用实例412时,或在该处可以生成有状态检查点的任何其他适合的时刻,主容错引擎414生成主应用实例412的状态的检查点。此检查点涉及在检查点时间的应用数据的副本和在检查点时间的有状态检查点元数据。生成检查点应用数据副本并将其存储在数据存储设备A中,生成有状态检查点元数据并将其存储在数据存储设备B中。主容错引擎414可以例如使用上述的MetaClusterTM产品来生成检查点。
主容错引擎414使用对等远程复制(PPRC)操作启动将检查点应用数据和元数据的副本传输到恢复场所460。作为响应,将应用数据和检查点元数据的副本从存储设备A和B发送到与恢复场所460关联的存储设备D和E。主容错引擎414可以将消息发送到活动备用计算设备420以“重新启动”主应用实例412的影子应用实例422。
远程容错引擎424可以在影子应用实例422上启动“重新启动”操作,以响应来自主容错引擎414的消息。重新启动操作利用应用数据和有状态检查点元数据的副本来重新启动影子应用实例422,该影子应用实例422处于与由应用数据和有状态检查点元数据指定的主应用实例412的初始状态对应的状态。如上所述,远程容错引擎424可以使用MetaClusterTM产品来执行此重新启动操作。
在使用数据存储设备D和E中的应用数据和有状态检查点元数据来重新启动影子应用实例422时,使主应用实例412可供客户机设备使用。因此,主计算设备410可以通过一个或多个网络从客户机接收输入,并生成通过一个或多个网络发送到客户机设备的输出。
所述输入、输入的处理以及生成输出导致在主应用实例412中发生事件。主容错引擎414将主应用实例412中发生的这些事件记录在存储在数据存储设备B内的日志中。将继续这些事件的记录,直到达到预定准则为止,此时关闭数据存储设备B中的日志并将事件的记录切换到数据存储设备C中的辅助日志。然后执行与数据存储设备C有关的相同记录,直到再次达到预定准则为止,此刻将记录切换回在数据存储设备B中维护的日志。在主应用实例412的运行期间,可以按需要重复执行日志之间的来回切换。
将事件写入数据存储设备B和C中的日志时,使用PPRC操作将相同的事件写入数据存储设备E和F中的对应日志。如图3所示,在将事件数据写入主卷(如数据存储设备B或C中的日志)之后立刻执行此PPRC操作。因此,借助PPRC操作,以自动和连续的方式使数据存储设备E和F中的日志与数据存储设备B和C中的日志的当前状态保持一致。
在达到预定准则时(如日志已满,预定时间量到期等),主容错引擎414可以关闭数据B中的日志,并不再将事件记录到数据存储设备B的日志中。主容错引擎414将事件的记录切换到数据存储设备C中的辅助日志。主容错引擎414可以将日志的切换发信号通知远程容错引擎424,远程容错引擎424然后可以关闭其自己在数据存储设备E中的日志的副本。在关闭数据存储设备E中的日志之后,远程容错引擎424可以重播在关闭的日志中记录的事件,以将影子应用实例422的状态更新为日志切换时的状态。
在此更新期间,主容错引擎414继续将事件记录到数据存储设备C内的辅助日志中。通过PPRC操作,将这些事件写入辅助日志,并且还将它们写入数据存储设备F中的对应日志。这样,即使在更新影子应用实例422的状态时也不会发生数据丢失。
如图4所示,应当指出,在主计算设备410上运行主应用实例412期间,将启用主应用实例412的输入和输出套接字。关于影子应用实例422,将禁用影子应用实例422的输出套接字,这样不会将影子应用实例420生成的输出发送到客户机设备。这确保了网络上不存在与主应用实例412的冲突,如消息重复。
在某些时刻,主应用实例412可能出现故障,并且需要将操作传输到在拓扑和/或地理上位于远程的活动备用计算设备420上的影子应用实例422。下面是示出了从主应用实例412故障转移到影子应用实例422的实例。
假定在主计算设备410上运行主应用实例412时,将主应用实例412中发生的事件记录到生产场所450的数据存储设备B上的第一日志。当达到预定准则(如预定间隔)时,可以将记录从数据存储设备B上的第一日志切换到数据存储设备C上的第二日志。如果使用共享存储系统,则第一日志中的事件将从共享存储系统自动应用于影子应用实例422,以响应日志切换事件。但是,如果未使用共享存储系统(如图4所示),则将第一日志和第二日志自动复制到恢复场所460的数据存储设备E和F。可以将数据存储设备E上的第一日志的副本中的事件应用于影子应用实例422,而不必终止对正在写入数据存储设备C中第二日志的日志事件的PPRC操作。这允许连续复制数据存储设备E和F上的日志事件。
有时在将日志事件写入数据存储设备C中的第二日志时,主应用实例412出现故障。远程容错引擎424(例如通过未检测到心跳信号、经过预定时间间隔而没有从主应用实例复制日志事件等),检测到生产场所450处主应用实例412的丢失。
此刻,影子应用实例422的状态是发生日志切换事件时的主应用实例412的状态。因此,需要在影子应用实例422中重播记录到数据存储设备C的第二日志中并复制到数据存储设备F的事件,以便使影子应用实例422的状态成为主应用实例412的当前状态。远程容错引擎424帮助从在数据存储设备F中维护的第二日志的副本重播事件。
在通过重播第二日志副本中的事件使影子应用实例成为当前状态之后,可以将来自客户机设备的输入重定向到影子应用实例,并且可以启用与影子应用实例422关联的输出影子套接字。此后,影子应用实例可以接管主应用实例412的运行。因此,在拓扑和/或地理上位于远程的活动备用计算设备420可用于提供主应用实例的故障转移而不会造成数据丢失。
应当理解,虽然图4示出了用于存储应用数据、检查点元数据和日志的不同存储设备A-F,但是示例性实施例并不限于此。相反,可以在不偏离本发明的精神和范围的情况下使用任何数量的存储设备。例如,生产场所450可以包括其上可以存储应用数据、检查点元数据和各种日志的单个存储设备。同样,恢复场所460可以具有一个或多个存储设备,所述存储设备用于存储使用上述PPRC操作从生产场所450复制的此数据的副本。
图5是根据一个示例性实施例的主容错引擎的主要操作组件的示意性方块图。如图5所示,主容错引擎包括控制器510、对等远程复制模块520、存储系统接口540、初始检查点生成模块530、网络接口550,以及应用日志模块560。元素510-560可以以硬件、软件或硬件和软件的任何组合来实现。在一个示例性实施例中,元素510-560实现为由一个或多个处理设备执行的软件指令。
控制器510负责主容错引擎的整体操作并协调其他元素520-560的操作。对等远程复制模块520负责执行将应用数据、初始检查点元数据和日志事件数据从生成场所450对等远程复制到恢复场所460。存储系统接口540提供了接口,通过该接口可以将数据写入与生产场所450关联的一个或多个存储设备或从所述设备读取数据。初始检查点生成模块530负责生成应用数据和有状态检查点元数据的初始副本以传输到恢复场所460,以便初始化影子应用实例。
网络接口550负责提供接口,通过所述接口可以将应用数据、有状态检查点元数据和日志数据传输到恢复场所460。还可以将指示应用实例的初始化、日志切换、应用实例故障等的消息通过网络接口550从主容错引擎传输到远程容错引擎。
应用日志模块560负责将应用实例中发生的事件记录到在生产场所的存储系统中维护的一个或多个日志。应用日志模块560还执行在日志之间进行切换的操作。
在操作中,控制器510指示初始检查点生成模块530生成应用实例的初始检查点,并通过存储系统接口540将所述检查点数据存储到生产场所的存储系统。控制器510然后指示对等远程复制模块520将检查点数据复制到在拓扑和/或地理上位于远程的恢复场所460。
控制器510然后指示应用日志模块560开始记录主应用实例的事件,并使用对等远程复制模块520执行将此类事件数据对等远程复制到恢复场所460。通过存储系统接口540,可以根据存储在存储系统中的一个或多个日志来完成事件的记录。可以通过网络接口550执行对等远程复制操作。应用日志模块560还可以通过网络接口550将指示日志切换的消息发送到恢复场所460。
图6是根据一个示例性实施例的远程容错引擎的主要操作组件的示意性方块图。如图6所示,远程容错引擎包括控制器610、应用日志重播模块620、存储系统接口630、影子应用故障转移模块640,以及网络接口650。元素610-650可以以硬件、软件或硬件和软件的任意组合来实现。在一个示例性实施例中,元素610-650实现为由一个或多个处理设备执行的软件指令。
控制器610负责远程容错引擎的整体操作并协调其他元素620-650的操作。应用日志重播模块620负责从存储在与恢复场所460关联的存储系统中的日志重播日志事件。例如,当发生日志切换事件或主应用实例出现故障时,可以发生此类事件重播。
存储系统接口630提供了接口,通过所述接口,远程容错引擎可以访问存储在与恢复场所460关联的存储系统中的检查点数据和日志。网络接口650提供了接口,通过所述接口,可以通过一个或多个网络从主容错引擎接收消息和数据。
影子应用故障转移模块640使用在与恢复场所460关联的存储系统中维护的日志来执行将主应用实例的操作故障转移到影子应用实例的所需操作。影子应用故障转移模块640可以执行操作以重播来自当前活动的日志的事件,以便使影子应用实例成为当前状态,然后启用影子应用实例的影子套接字,以便影子应用实例可以接管出现故障的主应用实例的操作。
在操作中,控制器610可以从生产场所450的主容错引擎接收消息,并指示各个元素620和640相应地运行。例如,响应于接收到初始化影子应用实例的指令,以及响应于接收到存储在与恢复场所460关联的存储系统中的检查点数据,控制器610可以初始化影子应用实例。此后,可以通过网络接口650接收对存储在与恢复场所460关联的存储系统中的日志的更新,并通过存储系统接口630将所述更新存储在存储系统中。
当控制器610从主容错引擎接收到指示已发生日志切换事件的消息时,控制器610可以指示应用日志重播模块620重播先前日志中的事件以将影子应用实例更新到日志切换事件时的数据。如上所述,当控制器610接收到消息或以其他方式检测到主应用实例已出现故障时,控制器610可以指示影子应用故障转移模块640执行将主应用实例的操作故障转移到影子应用实例的操作。
图7和图8是示出示例性实施例的示意性操作的流程图。应当理解,流程图中的每个块和块的组合都可以由计算机程序指令来实现。可以将这些计算机程序指令提供给处理器或其他可编程数据处理装置以产生机器,以便在所述处理器或其他可编程数据处理装置上执行的指令将创建用于实现一个或多个流程图块中指定的功能的装置。这些计算机程序指令也可以被存储在引导处理器或其他可编程数据处理装置以特定方式执行功能的计算机可读存储器或存储介质中,以便存储在所述计算机可读存储器或存储介质中的所述指令产生一件包括实现所述一个或多个流程图块中指定的功能的指令装置的制品。
相应地,流程图的多个块支持用于执行指定功能的装置的组合、用于执行指定功能的步骤的组合和用于执行指定功能的程序指令装置。还应理解,流程图中的每个块和流程图中的块的组合可以由执行指定功能或步骤的基于硬件的专用计算机系统来执行,或者通过专用硬件和计算机指令的组合来执行。
图7是示出了根据示例性实施例的用于维护在拓扑上位于远程的两个相关应用实例之间的连续一致状态的示例性操作的流程图。如图7所示,操作开始于主计算设备启动主应用实例(步骤710)。主容错引擎生成主应用实例的初始检查点(步骤720),并通过对等远程复制操作将初始检查点数据传输到恢复场所(步骤730)。
远程容错引擎接收检查点数据并使用该检查点数据启动影子应用实例(步骤740)。主容错引擎启动在与主应用实例关联的第一日志中记录事件(步骤750)。主容错引擎使用PPRC操作将写入日志的事件自动并连续地传输到恢复场所(步骤760)。
主容错引擎判定是否要执行日志切换(步骤770)。如果是,则主容错引擎将日志的记录从第一日志切换到第二日志(或在后续的切换事件中,将顺序相反),并且将切换日志事件消息发送到远程容错引擎。远程容错引擎接收切换日志事件消息并重播记录在先前日志(如第一日志)中的事件(步骤780)。
主容错引擎判定是否发生终止事件(步骤790)。此终止事件可以例如是停止主应用实例。如果发生终止事件,终止操作。否则,操作返回步骤750并使用新的事件日志继续记录事件。
图8是示出了根据一个示例性实施例的用于执行从主应用实例到影子应用实例的故障转移操作的示例性操作的流程图。如图8所示,操作开始于远程容错引擎检测主应用实例的故障(步骤810)。远程容错引擎使用影子应用实例重播记录在当前活动的日志中的事件(步骤820)。启用影子应用的影子套接字(步骤830),将到主应用实例的输入重定向到影子应用实例(步骤840)。然后终止操作。
因此,示例性实施例提供了将在拓扑和/或地理上位于远程的计算系统用作活动的备用计算系统以进行故障转移操作的机制。示例性实施例提供了在主应用实例和影子应用实例之间自动连续地复制日志事件以便使两个应用实例保持一致状态的机制。当主应用实例中出现故障时,在拓扑和/或地理上位于远程的活动备用计算设备上的影子应用实例可以接管发生故障的主应用实例的操作,使用存储在远程位置的记录事件的一致性复制对影子应用状态进行简单更新。执行所有这些操作都不会造成数据丢失。
上述示例性实施例可以采取完全硬件实施例、完全软件实施例或同时包含硬件和软件元素的实施例的形式。在优选实施例中,本发明以软件实现,所述软件包括但不限于固件、驻留软件、微代码等。
此外,示例性实施例可以采取可从计算机可用或计算机可读介质访问的计算机程序产品的形式,所述计算机可用或计算机可读介质提供了可以被计算机或任何指令执行系统使用或与计算机或任何指令执行系统结合的程序代码。出于在此说明的目的,计算机可用或计算机可读介质可以是任何能够包含、存储、传送、传播或传输由指令执行系统、装置或设备使用或与所述指令执行系统、装置或设备结合的程序的装置。
所述介质可以是电、磁、光、电磁、红外线或半导体系统(或装置或设备)或传播介质。计算机可读介质的实例包括半导体或固态存储器、磁带、可移动计算机盘、随机存取存储器(RAM)、只读存储器(ROM)、硬磁盘和光盘。光盘的当前实例包括光盘-只读存储器(CD-ROM)、光盘-读/写(CR-R/W)和DVD。
如以上根据图2描述的,适合于存储和/或执行程序代码的数据处理系统将包括至少一个通过系统总线直接或间接连接到存储器元件的处理器。所述存储器元件可以包括在程序代码的实际执行期间采用的本地存储器、大容量存储装置以及提供至少某些程序代码的临时存储以减少必须在执行期间从大容量存储装置检索代码的次数的高速缓冲存储器。
输入/输出或I/O设备(包括但不限于键盘、显示器、指点设备等)可以直接或通过中间I/O控制器与系统相连。
网络适配器也可以被连接到系统以使所述数据处理系统能够通过中间专用或公共网络变得与其他数据处理系统或远程打印机或存储设备相连。调制解调器、电缆调制解调器和以太网卡只是几种当前可用的网络适配器类型。
出于示例和说明目的给出了对示例性实施例的描述,并且所述描述并非旨在是穷举的或是将本发明限于所公开的形式。对于本领域的技术人员来说,许多修改和变化都将是显而易见的。实施例的选择和描述是为了最佳地解释本发明的示例性实施例的原理、实际应用,并且当适合于所构想的特定使用时,使得本领域的其他技术人员能够理解本发明的具有各种修改的各种示例性实施例。

Claims (25)

1.一种提供影子应用实例以便重定位主应用实例的备用计算系统,所述系统包括:
处理器;以及
连接到所述处理器的存储器,其中所述存储器包含指令,当所述指令由所述处理器执行时,将导致所述处理器执行以下操作:
从在拓扑上远离所述备用计算系统的主计算设备自动地接收写入与所述主计算设备关联的第一日志数据结构的主应用实例的事件数据;
将所述事件数据存储在与所述备用计算系统和影子应用实例关联的第二日志数据结构中,其中所述主应用实例和影子应用实例是同一应用的实例;
通过重播与所述影子应用实例关联的第二日志中的事件来更新所述影子应用实例的状态,由此使所述影子应用实例的状态变为与所述主应用实例一致的状态;以及
使用所述影子应用实例将所述主应用实例重定位到所述备用计算系统以响应所述主应用实例的故障。
2.根据权利要求1的备用计算系统,其中所述指令导致所述处理器更新所述影子应用实例的状态,以响应从所述主计算设备接收到指示日志切换事件的日志切换事件消息。
3.根据权利要求2的备用计算系统,其中所述指令导致所述处理器在接收所述日志切换事件消息之后,将接收的事件数据存储到与所述影子应用实例关联的第三日志数据结构。
4.根据权利要求3的备用计算系统,其中所述指令导致所述处理器通过执行下列操作来将所述主应用实例重定位到所述备用计算系统:
检测所述主计算设备上的所述主应用实例的故障;以及
重播所述第三日志数据结构中的事件以响应检测到所述主应用实例的所述故障。
5.根据权利要求1的备用计算系统,其中所述主计算设备和备用计算系统具有相同的虚拟网络地址,并且其中在重定位所述主应用实例之前,启用了所述主应用实例的输入和输出套接字,但只启用了所述影子应用实例的输入套接字。
6.根据权利要求5的备用计算系统,其中所述指令还导致所述处理器执行下列操作:
检测所述主计算设备上的所述主应用实例的故障;
重播所述第三日志数据结构中的事件以响应检测到所述主应用实例的所述故障,由此使所述影子应用实例成为与所述主应用实例一致的、恰好在所述主应用实例的所述检测到的故障之前的状态;以及
启用所述影子应用实例的输出套接字以响应检测到所述主应用实例的所述故障。
7.根据权利要求1的备用计算系统,其中所述指令还导致所述处理器执行下列操作:
在从所述主计算设备接收事件数据之前,将所述影子应用实例的状态与所述主应用实例的状态同步。
8.根据权利要求7的备用计算系统,其中所述指令导致所述处理器通过执行下列操作来将所述影子应用实例的状态与所述主应用实例的状态同步:
从所述在拓扑上位于远程的主计算设备接收所述主应用实例的应用数据;
接收包括检查点元数据的应用检查点,所述检查点元数据代表与所述应用数据的副本相同的时间点;以及
使用所述应用数据和检查点元数据来初始化所述备用计算系统上的所述影子应用实例。
9.根据权利要求1的备用计算系统,其中所述主计算设备自动地将所述主应用实例中发生的事件的事件数据写入所述第一日志数据结构,并在将所述事件数据写入所述第一日志数据结构时,自动地将所述事件数据复制到所述第二日志数据结构。
10.根据权利要求1的备用计算系统,其中自动地接收所述事件数据包括通过由所述主计算设备执行的对等远程复制操作来接收所述事件数据。
11.根据权利要求1的备用计算系统,其中所述备用计算系统在地理上远离所述主计算设备。
12.根据权利要求1的备用计算系统,其中所述备用计算系统在所述主计算设备的群集或存储区域网络之外。
13.一种在备用计算设备中用于提供影子应用实例以便重定位主应用实例的方法,所述方法包括:
从在拓扑上远离所述备用计算设备的主计算设备自动地接收写入与所述主计算设备关联的第一日志数据结构的主应用实例的事件数据;
将所述事件数据存储在与所述备用计算设备和影子应用实例关联的第二日志数据结构中,其中所述主应用实例和影子应用实例是同一应用的实例;
通过重播与所述影子应用实例关联的第二日志中的事件来更新所述影子应用实例的状态,由此使所述影子应用实例的状态变为与所述主应用实例一致的状态;以及
使用所述影子应用实例将所述主应用实例重定位到所述备用计算设备以响应所述主应用实例的故障。
14.根据权利要求13的方法,其中执行更新所述影子应用实例的状态,以响应从所述主计算设备接收到指示日志切换事件的日志切换事件消息。
15.根据权利要求14的方法,还包括:
在接收所述日志切换事件消息之后,将接收的事件数据存储到与所述影子应用实例关联的第三日志数据结构。
16.根据权利要求15的方法,其中将所述主应用实例重定位到所述备用计算设备包括:
检测所述主计算设备上的所述主应用实例的故障;以及
重播所述第三日志数据结构中的事件以响应检测到所述主应用实例的所述故障。
17.根据权利要求13的方法,其中所述主计算设备和备用计算设备具有相同的虚拟网络地址,并且其中在重定位所述主应用实例之前,启用了所述主应用实例的输入和输出套接字,但只启用了所述影子应用实例的输入套接字。
18.根据权利要求17的方法,其中重定位所述主应用实例包括:
检测所述主计算设备上的所述主应用实例的故障;
重播所述第三日志数据结构中的事件以响应检测到所述主应用实例的所述故障,由此使所述影子应用实例成为与所述主应用实例一致的、恰好在所述主应用实例的所述检测到的故障之前的状态;以及
启用所述影子应用实例的输出套接字以响应检测到所述主应用实例的所述故障。
19.根据权利要求13的方法,还包括:
在从所述主计算设备接收事件数据之前,将所述影子应用实例的状态与所述主应用实例的状态同步。
20.根据权利要求19的方法,其中将所述影子应用实例的状态和所述主应用实例的状态同步包括:
从所述在拓扑上位于远程的主计算设备接收所述主应用实例的应用数据;
接收包括检查点元数据的应用检查点,所述检查点元数据代表与所述应用数据的副本相同的时间点;以及
使用所述应用数据和检查点元数据来初始化所述备用计算设备上的所述影子应用实例。
21.根据权利要求13的方法,其中所述主计算设备自动地将所述主应用实例中发生的事件的事件数据写入所述第一日志数据结构,并在将所述事件数据写入所述第一日志数据结构时,自动地将所述事件数据复制到所述第二日志数据结构。
22.根据权利要求13的方法,其中自动地接收所述事件数据包括通过由所述主计算设备执行的对等远程复制操作来接收所述事件数据。
23.根据权利要求13的方法,其中所述备用计算设备在地理上远离所述主计算设备。
24.根据权利要求13的方法,其中所述备用计算设备在所述主计算设备的群集或存储区域网络之外。
25.一种包括计算机可读介质的计算机程序产品,所述计算机可读介质具有计算机可读程序,其中当所述计算机可读程序在备用计算设备上执行时,将导致所述备用计算设备实现根据权利要求13-24中的任一权利要求的方法。
CNB2007100913664A 2006-04-12 2007-03-30 应用容错和恢复的系统和方法 Expired - Fee Related CN100461122C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/403,050 US7613749B2 (en) 2006-04-12 2006-04-12 System and method for application fault tolerance and recovery using topologically remotely located computing devices
US11/403,050 2006-04-12

Publications (2)

Publication Number Publication Date
CN101055538A true CN101055538A (zh) 2007-10-17
CN100461122C CN100461122C (zh) 2009-02-11

Family

ID=38606086

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2007100913664A Expired - Fee Related CN100461122C (zh) 2006-04-12 2007-03-30 应用容错和恢复的系统和方法

Country Status (2)

Country Link
US (1) US7613749B2 (zh)
CN (1) CN100461122C (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101145946B (zh) * 2007-09-17 2010-09-01 中兴通讯股份有限公司 一种基于消息日志的容错集群系统和方法
CN101964030A (zh) * 2010-07-19 2011-02-02 北京兴宇中科科技开发股份有限公司 一致点插入与恢复支持的卷级连续数据保护系统及方法
CN101477488B (zh) * 2009-01-16 2011-03-16 哈尔滨工程大学 一种面向关键服务系统的系统级悔改恢复方法及系统
CN102270155A (zh) * 2010-07-27 2011-12-07 微软公司 应用程序实例和查询存储
CN102455951A (zh) * 2011-07-21 2012-05-16 中标软件有限公司 一种虚拟机容错方法和系统
CN102591741A (zh) * 2010-11-29 2012-07-18 国际商业机器公司 使用可缩放虚拟容量实现灾难恢复的方法和系统
WO2012101540A1 (en) * 2011-01-27 2012-08-02 International Business Machines Corporation Application recovery in file system
WO2012103827A3 (zh) * 2012-03-15 2013-02-21 华为技术有限公司 一种容器状态的保存和恢复的方法及装置
CN103186435A (zh) * 2011-12-28 2013-07-03 英业达股份有限公司 系统错误处理方法与使用该方法的服务器系统
CN103927236A (zh) * 2013-01-11 2014-07-16 深圳市腾讯计算机系统有限公司 在线校验方法和装置
CN104798059A (zh) * 2012-12-20 2015-07-22 英特尔公司 在检查点外部处理写入数据的多个计算机系统
WO2016000298A1 (zh) * 2014-06-30 2016-01-07 中兴通讯股份有限公司 一种系统异常的捕获方法、主系统、影子系统及智能设备
CN105530120A (zh) * 2015-12-01 2016-04-27 中国建设银行股份有限公司 一种业务处理方法、控制器及业务处理系统
CN105573866A (zh) * 2009-07-14 2016-05-11 起元技术有限责任公司 以容错方式处理批量输入数据的方法和系统
CN105637552A (zh) * 2013-08-16 2016-06-01 直观外科手术操作公司 用于在异构设备间记录和重播的系统和方法
CN106020859A (zh) * 2016-05-04 2016-10-12 青岛海信移动通信技术股份有限公司 一种终端上应用的安装方法和装置
US9471447B2 (en) 2012-10-31 2016-10-18 International Business Machines Corporation Virtualization simulation engine including assuming a dormant state for a lower priority application
CN106407410A (zh) * 2009-10-26 2017-02-15 亚马逊技术股份有限公司 供应并管理已复制数据
CN110291505A (zh) * 2017-11-30 2019-09-27 慧与发展有限责任合伙企业 减少应用的恢复时间
CN110727550A (zh) * 2019-12-18 2020-01-24 中国银联股份有限公司 数据复制处理方法、装置、容灾系统、设备及存储介质

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8584145B1 (en) 2010-08-06 2013-11-12 Open Invention Network, Llc System and method for dynamic transparent consistent application-replication of multi-process multi-threaded applications
US8621275B1 (en) * 2010-08-06 2013-12-31 Open Invention Network, Llc System and method for event-driven live migration of multi-process applications
US20070276879A1 (en) * 2006-05-26 2007-11-29 Rothman Michael A Sparse checkpoint and rollback
US7823152B2 (en) * 2006-06-06 2010-10-26 International Business Machines Corporation System and method for collaborative hosting of applications, virtual machines, and data objects
US8799446B2 (en) * 2006-08-18 2014-08-05 Microsoft Corporation Service resiliency within on-premise products
US7840683B2 (en) * 2006-08-31 2010-11-23 Sap Ag Systems and methods of migrating sessions between computer systems
US7793148B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation Using virtual copies in a failover and failback environment
US8069141B2 (en) * 2007-03-12 2011-11-29 Microsoft Corporation Interfaces for high availability systems and log shipping
JP2008305070A (ja) * 2007-06-06 2008-12-18 Hitachi Communication Technologies Ltd 情報処理装置および情報処理装置システム
US8984326B2 (en) * 2007-10-31 2015-03-17 Hewlett-Packard Development Company, L.P. Testing disaster recovery elements
US8141092B2 (en) * 2007-11-15 2012-03-20 International Business Machines Corporation Management of an IOV adapter through a virtual intermediary in a hypervisor with functional management in an IOV management partition
US8141093B2 (en) * 2007-11-15 2012-03-20 International Business Machines Corporation Management of an IOV adapter through a virtual intermediary in an IOV management partition
US8141094B2 (en) * 2007-12-03 2012-03-20 International Business Machines Corporation Distribution of resources for I/O virtualized (IOV) adapters and management of the adapters through an IOV management partition via user selection of compatible virtual functions
US8086739B2 (en) * 2007-12-10 2011-12-27 Oracle America, Inc. Method and system for monitoring virtual wires
US7945647B2 (en) * 2007-12-10 2011-05-17 Oracle America, Inc. Method and system for creating a virtual network path
US7962587B2 (en) * 2007-12-10 2011-06-14 Oracle America, Inc. Method and system for enforcing resource constraints for virtual machines across migration
US8095661B2 (en) * 2007-12-10 2012-01-10 Oracle America, Inc. Method and system for scaling applications on a blade chassis
US8370530B2 (en) * 2007-12-10 2013-02-05 Oracle America, Inc. Method and system for controlling network traffic in a blade chassis
US7984123B2 (en) * 2007-12-10 2011-07-19 Oracle America, Inc. Method and system for reconfiguring a virtual network path
US7965714B2 (en) * 2008-02-29 2011-06-21 Oracle America, Inc. Method and system for offloading network processing
US7970951B2 (en) * 2008-02-29 2011-06-28 Oracle America, Inc. Method and system for media-based data transfer
US7944923B2 (en) * 2008-03-24 2011-05-17 Oracle America, Inc. Method and system for classifying network traffic
JP4802207B2 (ja) * 2008-04-23 2011-10-26 株式会社日立製作所 情報処理システムの制御方法、情報処理システム、およびプログラム
US8359415B2 (en) * 2008-05-05 2013-01-22 International Business Machines Corporation Multi-root I/O virtualization using separate management facilities of multiple logical partitions
US8719800B2 (en) * 2008-06-20 2014-05-06 Vmware, Inc. Accelerating replayed program execution to support decoupled program analysis
US7941539B2 (en) * 2008-06-30 2011-05-10 Oracle America, Inc. Method and system for creating a virtual router in a blade chassis to maintain connectivity
US8739179B2 (en) * 2008-06-30 2014-05-27 Oracle America Inc. Method and system for low-overhead data transfer
US8019732B2 (en) * 2008-08-08 2011-09-13 Amazon Technologies, Inc. Managing access of multiple executing programs to non-local block data storage
US8144582B2 (en) * 2008-12-30 2012-03-27 International Business Machines Corporation Differentiating blade destination and traffic types in a multi-root PCIe environment
US8019861B2 (en) * 2009-01-29 2011-09-13 Vmware, Inc. Speculative virtual machine resource scheduling
JPWO2010107106A1 (ja) * 2009-03-17 2012-09-20 日本電気株式会社 イベントデータベース、データ管理装置、データ管理システム、データ管理プログラムおよびデータ管理方法
US9098562B2 (en) * 2009-03-30 2015-08-04 The Boeing Company Computer architectures using shared storage
EP2241977B1 (en) * 2009-04-17 2015-05-27 Accenture Global Services Limited Exchangeable application components
US20110047413A1 (en) * 2009-08-20 2011-02-24 Mcgill Robert E Methods and devices for detecting service failures and maintaining computing services using a resilient intelligent client computer
US8751760B2 (en) * 2009-10-01 2014-06-10 Dell Products L.P. Systems and methods for power state transitioning in an information handling system
US8245083B2 (en) * 2009-12-24 2012-08-14 At&T Intellectual Property I, L.P. Systems, methods, and apparatus to debug a network application
CN101807985B (zh) * 2010-03-03 2012-11-28 交通银行股份有限公司 一种数据中心集中式控制切换方法及系统
EP2372978B1 (en) * 2010-03-30 2018-12-26 The Boeing Company Computer architectures using shared storage
US8782434B1 (en) 2010-07-15 2014-07-15 The Research Foundation For The State University Of New York System and method for validating program execution at run-time
US9098462B1 (en) 2010-09-14 2015-08-04 The Boeing Company Communications via shared memory
US8713362B2 (en) 2010-12-01 2014-04-29 International Business Machines Corporation Obviation of recovery of data store consistency for application I/O errors
US8694821B2 (en) 2010-12-03 2014-04-08 International Business Machines Corporation Generation of standby images of applications
US8634415B2 (en) 2011-02-16 2014-01-21 Oracle International Corporation Method and system for routing network traffic for a blade server
US9858241B2 (en) 2013-11-05 2018-01-02 Oracle International Corporation System and method for supporting optimized buffer utilization for packet processing in a networking device
US9990237B2 (en) * 2011-02-23 2018-06-05 Red Hat Israel, Ltd. Lockless write tracking
US9176829B2 (en) * 2011-07-01 2015-11-03 Microsoft Technology Licensing, Llc Managing recovery virtual machines in clustered environment
CN102508764B (zh) * 2011-11-04 2014-06-11 哈尔滨工程大学 一种容错移动计算系统记录节点事件日志的方法
KR20130081552A (ko) 2012-01-09 2013-07-17 삼성전자주식회사 장애 복구 장치 및 방법
US8918672B2 (en) * 2012-05-31 2014-12-23 International Business Machines Corporation Maximizing use of storage in a data replication environment
US9256463B2 (en) 2012-06-29 2016-02-09 International Business Machines Corporation Method and apparatus to replicate stateful virtual machines between clouds
US9063721B2 (en) 2012-09-14 2015-06-23 The Research Foundation For The State University Of New York Continuous run-time validation of program execution: a practical approach
KR20140036621A (ko) * 2012-09-17 2014-03-26 한국전자통신연구원 레인 장애 복구 장치 및 방법
US9069782B2 (en) 2012-10-01 2015-06-30 The Research Foundation For The State University Of New York System and method for security and privacy aware virtual machine checkpointing
US9507586B2 (en) 2012-10-05 2016-11-29 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Virtual machine based controller and upgrade mechanism
US11030055B2 (en) * 2013-03-15 2021-06-08 Amazon Technologies, Inc. Fast crash recovery for distributed database systems
US10218564B2 (en) * 2013-07-08 2019-02-26 Nicira, Inc. Unified replication mechanism for fault-tolerance of state
GB2517780A (en) 2013-09-02 2015-03-04 Ibm Improved checkpoint and restart
US9489327B2 (en) 2013-11-05 2016-11-08 Oracle International Corporation System and method for supporting an efficient packet processing model in a network environment
US9348701B2 (en) * 2013-11-05 2016-05-24 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for failure recovery in a machine-to-machine network
US9727545B1 (en) * 2013-12-04 2017-08-08 Google Inc. Selecting textual representations for entity attribute values
US9720790B2 (en) * 2014-03-12 2017-08-01 Ainsworth Game Technology Limited Devices and methodologies for implementing redundant backups in NVRAM reliant environments
JP6237388B2 (ja) * 2014-03-25 2017-11-29 富士通株式会社 特定プログラム、特定方法、及び特定装置
US9779105B1 (en) * 2014-03-31 2017-10-03 EMC IP Holding Company LLC Transaction logging using file-system-specific log files
US20170308446A1 (en) * 2014-10-23 2017-10-26 Telefonaktiebolaget Lm Ericsson (Publ) System and method for disaster recovery of cloud applications
US10061684B2 (en) * 2015-07-31 2018-08-28 Microsoft Technology Licensing, Llc Enhanced service validation
US10153918B2 (en) 2015-08-27 2018-12-11 Nicira, Inc. Joining an application cluster
US10122626B2 (en) 2015-08-27 2018-11-06 Nicira, Inc. Self-managed overlay networks
US10462011B2 (en) * 2015-08-27 2019-10-29 Nicira, Inc. Accessible application cluster topology
US10645163B2 (en) * 2015-10-01 2020-05-05 Hewlett Packard Enterprise Development Lp Site-aware cluster management
US9910697B2 (en) * 2015-10-13 2018-03-06 Palantir Technologies Inc. Fault-tolerant and highly-available configuration of distributed services
US10228962B2 (en) 2015-12-09 2019-03-12 Commvault Systems, Inc. Live synchronization and management of virtual machines across computing and virtualization platforms and using live synchronization to support disaster recovery
US10387266B2 (en) * 2015-12-23 2019-08-20 Commvault Systems, Inc. Application-level live synchronization across computing platforms including synchronizing co-resident applications to disparate standby destinations and selectively synchronizing some applications and not others
US10341020B2 (en) * 2016-03-17 2019-07-02 Avago Technologies International Sales Pte. Limited Flexible ethernet logical lane aggregation
US10552267B2 (en) * 2016-09-15 2020-02-04 International Business Machines Corporation Microcheckpointing with service processor
US9858151B1 (en) * 2016-10-03 2018-01-02 International Business Machines Corporation Replaying processing of a restarted application
US10216587B2 (en) 2016-10-21 2019-02-26 International Business Machines Corporation Scalable fault tolerant support in a containerized environment
US10719244B2 (en) * 2016-11-18 2020-07-21 International Business Machines Corporation Multi-mode data replication for data loss risk reduction
CN108334415A (zh) * 2017-01-20 2018-07-27 百度在线网络技术(北京)有限公司 一种容错处理方法、装置、终端及存储介质
US10924538B2 (en) * 2018-12-20 2021-02-16 The Boeing Company Systems and methods of monitoring software application processes
US11163633B2 (en) 2019-04-24 2021-11-02 Bank Of America Corporation Application fault detection and forecasting
US20220263897A1 (en) * 2019-09-13 2022-08-18 Pure Storage, Inc. Replicating Multiple Storage Systems Utilizing Coordinated Snapshots
US11327663B2 (en) 2020-06-09 2022-05-10 Commvault Systems, Inc. Ensuring the integrity of data storage volumes used in block-level live synchronization operations in a data storage management system

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155678A (en) 1985-10-29 1992-10-13 International Business Machines Corporation Data availability in restartable data base system
SE454730B (sv) * 1986-09-19 1988-05-24 Asea Ab Forfarande och datorutrustning for stotfri omkoppling av funktionen fran aktiva enheter till beredskapsenheter i en centralenhet
US4945474A (en) * 1988-04-08 1990-07-31 Internatinal Business Machines Corporation Method for restoring a database after I/O error employing write-ahead logging protocols
US5140592A (en) * 1990-03-02 1992-08-18 Sf2 Corporation Disk array system
JPH0540682A (ja) * 1990-06-08 1993-02-19 Internatl Business Mach Corp <Ibm> アトミシテイを有する記憶装置の高可用性耐故障再配置
US5737514A (en) * 1995-11-29 1998-04-07 Texas Micro, Inc. Remote checkpoint memory system and protocol for fault-tolerant computer system
US6397229B1 (en) * 1998-02-02 2002-05-28 International Business Machines Corporation Storage-controller-managed outboard incremental backup/restore of data
US6205449B1 (en) 1998-03-20 2001-03-20 Lucent Technologies, Inc. System and method for providing hot spare redundancy and recovery for a very large database management system
US6092085A (en) 1998-03-24 2000-07-18 International Business Machines Corporation Method and system for improved database disaster recovery
US6163856A (en) 1998-05-29 2000-12-19 Sun Microsystems, Inc. Method and apparatus for file system disaster recovery
US6629263B1 (en) 1998-11-10 2003-09-30 Hewlett-Packard Company Fault tolerant network element for a common channel signaling (CCS) system
US6349357B1 (en) * 1999-03-04 2002-02-19 Sun Microsystems, Inc. Storage architecture providing scalable performance through independent control and data transfer paths
US6339793B1 (en) * 1999-04-06 2002-01-15 International Business Machines Corporation Read/write data sharing of DASD data, including byte file system data, in a cluster of multiple data processing systems
JP2001034568A (ja) 1999-07-21 2001-02-09 Fujitsu Ltd 論理パス確立方法及び記憶媒体
US8156074B1 (en) 2000-01-26 2012-04-10 Synchronoss Technologies, Inc. Data transfer and synchronization system
US6721901B1 (en) 2000-02-28 2004-04-13 International Business Machines Corporation Method and system for recovering mirrored logical data volumes within a data processing system
US6826613B1 (en) * 2000-03-15 2004-11-30 3Com Corporation Virtually addressing storage devices through a switch
US6658590B1 (en) * 2000-03-30 2003-12-02 Hewlett-Packard Development Company, L.P. Controller-based transaction logging system for data recovery in a storage area network
US6629264B1 (en) * 2000-03-30 2003-09-30 Hewlett-Packard Development Company, L.P. Controller-based remote copy system with logical unit grouping
FR2820221B1 (fr) 2001-02-01 2004-08-20 Cimai Technology Procede et systeme pour gerer des executables a bibliotheques partagees
US6944133B2 (en) * 2001-05-01 2005-09-13 Ge Financial Assurance Holdings, Inc. System and method for providing access to resources using a fabric switch
US7143252B2 (en) 2001-05-10 2006-11-28 Hitachi, Ltd. Storage apparatus system and method of data backup
US6978398B2 (en) 2001-08-15 2005-12-20 International Business Machines Corporation Method and system for proactively reducing the outage time of a computer system
US7146387B1 (en) * 2001-12-19 2006-12-05 Emc Corporation System and method for configuring and performing application backups and restores in diverse environments
FR2843210B1 (fr) 2002-08-02 2005-10-14 Meiosys Procede de migration de connexions dans une architecture multi-ordinateurs, procede pour realiser une continuite de fonctionnement mettant en oeuvre ce procede de migration, et systeme multi-ordinateurs ainsi equipe.
FR2843209B1 (fr) 2002-08-02 2006-01-06 Cimai Technology Procede de replication d'une application logicielle dans une architecture multi-ordinateurs, procede pour realiser une continuite de fonctionnement mettant en oeuvre ce procede de replication, et systeme multi-ordinateurs ainsi equipe.
CA2419883A1 (en) 2003-02-26 2004-08-26 Ibm Canada Limited - Ibm Canada Limitee Discriminatory replay of log files during table space recovery in a database management system
US20050021836A1 (en) 2003-05-01 2005-01-27 Reed Carl J. System and method for message processing and routing
US7346905B2 (en) * 2003-06-10 2008-03-18 International Business Machines Corporation Apparatus and method for maintaining resource integrity without a unified transaction manager in a software environment
US20050071380A1 (en) * 2003-09-29 2005-03-31 Micka William F. Apparatus and method to coordinate multiple data storage and retrieval systems
US7188272B2 (en) * 2003-09-29 2007-03-06 International Business Machines Corporation Method, system and article of manufacture for recovery from a failure in a cascading PPRC system
US7237056B2 (en) 2003-11-17 2007-06-26 Hewlett-Packard Development Company, L.P. Tape mirror interface
US7054960B1 (en) * 2003-11-18 2006-05-30 Veritas Operating Corporation System and method for identifying block-level write operations to be transferred to a secondary site during replication
US7299378B2 (en) 2004-01-15 2007-11-20 Oracle International Corporation Geographically distributed clusters
JP4452533B2 (ja) * 2004-03-19 2010-04-21 株式会社日立製作所 システムおよび記憶装置システム
US20050262483A1 (en) * 2004-05-05 2005-11-24 Bea Systems, Inc. System and method for application propagation
US7644318B2 (en) * 2004-07-14 2010-01-05 Hewlett-Packard Development Company, L.P. Method and system for a failover procedure with a storage system
US7461711B2 (en) * 2004-11-24 2008-12-09 The Boeing Company Superconducting crawler system for a production line
US20070033361A1 (en) * 2005-08-02 2007-02-08 Abdulvahid Jasmeer K Apparatus, system, and method for fastcopy target creation
US7941404B2 (en) * 2006-03-08 2011-05-10 International Business Machines Corporation Coordinated federated backup of a distributed application environment

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101145946B (zh) * 2007-09-17 2010-09-01 中兴通讯股份有限公司 一种基于消息日志的容错集群系统和方法
CN101477488B (zh) * 2009-01-16 2011-03-16 哈尔滨工程大学 一种面向关键服务系统的系统级悔改恢复方法及系统
CN105573866A (zh) * 2009-07-14 2016-05-11 起元技术有限责任公司 以容错方式处理批量输入数据的方法和系统
CN105573866B (zh) * 2009-07-14 2018-11-13 起元技术有限责任公司 以容错方式处理批量输入数据的方法和系统
US11321348B2 (en) 2009-10-26 2022-05-03 Amazon Technologies, Inc. Provisioning and managing replicated data instances
CN106407410A (zh) * 2009-10-26 2017-02-15 亚马逊技术股份有限公司 供应并管理已复制数据
US11907254B2 (en) 2009-10-26 2024-02-20 Amazon Technologies, Inc. Provisioning and managing replicated data instances
CN101964030A (zh) * 2010-07-19 2011-02-02 北京兴宇中科科技开发股份有限公司 一致点插入与恢复支持的卷级连续数据保护系统及方法
CN102270155A (zh) * 2010-07-27 2011-12-07 微软公司 应用程序实例和查询存储
CN103049565A (zh) * 2010-07-27 2013-04-17 微软公司 应用程序实例和查询存储
US8903782B2 (en) 2010-07-27 2014-12-02 Microsoft Corporation Application instance and query stores
CN102591741A (zh) * 2010-11-29 2012-07-18 国际商业机器公司 使用可缩放虚拟容量实现灾难恢复的方法和系统
CN102591741B (zh) * 2010-11-29 2015-09-23 国际商业机器公司 使用可缩放虚拟容量实现灾难恢复的方法和系统
US8566636B2 (en) 2011-01-27 2013-10-22 International Business Machines Corporation Application recovery in a file system
GB2501659A (en) * 2011-01-27 2013-10-30 Ibm Application recovery in file system
US8560884B2 (en) 2011-01-27 2013-10-15 International Business Machines Corporation Application recovery in a file system
CN103329105A (zh) * 2011-01-27 2013-09-25 国际商业机器公司 文件系统中的应用恢复
WO2012101540A1 (en) * 2011-01-27 2012-08-02 International Business Machines Corporation Application recovery in file system
GB2501659B (en) * 2011-01-27 2017-12-27 Ibm Application recovery in file system
CN103329105B (zh) * 2011-01-27 2016-01-20 国际商业机器公司 文件系统中的应用恢复
CN102455951A (zh) * 2011-07-21 2012-05-16 中标软件有限公司 一种虚拟机容错方法和系统
CN103186435A (zh) * 2011-12-28 2013-07-03 英业达股份有限公司 系统错误处理方法与使用该方法的服务器系统
CN103186435B (zh) * 2011-12-28 2015-11-25 英业达股份有限公司 系统错误处理方法与使用该方法的服务器系统
WO2012103827A3 (zh) * 2012-03-15 2013-02-21 华为技术有限公司 一种容器状态的保存和恢复的方法及装置
US9471447B2 (en) 2012-10-31 2016-10-18 International Business Machines Corporation Virtualization simulation engine including assuming a dormant state for a lower priority application
CN104798059A (zh) * 2012-12-20 2015-07-22 英特尔公司 在检查点外部处理写入数据的多个计算机系统
CN103927236A (zh) * 2013-01-11 2014-07-16 深圳市腾讯计算机系统有限公司 在线校验方法和装置
US10176213B2 (en) 2013-01-11 2019-01-08 Tencent Technology (Shenzhen) Company Limited Method and device for verifying consistency of data of master device and slave device
CN103927236B (zh) * 2013-01-11 2018-01-16 深圳市腾讯计算机系统有限公司 在线校验方法和装置
US11221863B2 (en) 2013-08-16 2022-01-11 Intuitive Surgical Operations, Inc. System and method for aggregating logs for replay
CN105637552B (zh) * 2013-08-16 2019-06-14 直观外科手术操作公司 用于在异构设备间记录和重播的系统和方法
CN105637552A (zh) * 2013-08-16 2016-06-01 直观外科手术操作公司 用于在异构设备间记录和重播的系统和方法
WO2016000298A1 (zh) * 2014-06-30 2016-01-07 中兴通讯股份有限公司 一种系统异常的捕获方法、主系统、影子系统及智能设备
CN105530120A (zh) * 2015-12-01 2016-04-27 中国建设银行股份有限公司 一种业务处理方法、控制器及业务处理系统
CN106020859A (zh) * 2016-05-04 2016-10-12 青岛海信移动通信技术股份有限公司 一种终端上应用的安装方法和装置
CN110291505A (zh) * 2017-11-30 2019-09-27 慧与发展有限责任合伙企业 减少应用的恢复时间
US11663094B2 (en) 2017-11-30 2023-05-30 Hewlett Packard Enterprise Development Lp Reducing recovery time of an application
CN110727550A (zh) * 2019-12-18 2020-01-24 中国银联股份有限公司 数据复制处理方法、装置、容灾系统、设备及存储介质

Also Published As

Publication number Publication date
US20070244937A1 (en) 2007-10-18
CN100461122C (zh) 2009-02-11
US7613749B2 (en) 2009-11-03

Similar Documents

Publication Publication Date Title
CN101055538A (zh) 应用容错和恢复的系统和方法
CN1213376C (zh) 用于被复制的服务器的协议
CN103164254B (zh) 用于维持镜像虚拟环境中存储装置的一致性的方法和系统
US7434220B2 (en) Distributed computing infrastructure including autonomous intelligent management system
CN102761566B (zh) 迁移虚拟机的方法和装置
US8990613B2 (en) Data transfer and recovery
US6671705B1 (en) Remote mirroring system, device, and method
US8732124B1 (en) Multisite replication with coordinated cycle switching
US9471442B2 (en) Data transfer and recovery
CN101030154A (zh) 将应用重新定位到拓扑上位于远程计算系统的系统和方法
CN1902595A (zh) 在复制环境中的协调的存储管理操作
JP2009544100A (ja) ネットワーク記憶システムのためのリムーバブル携帯データバックアップ
CN1350674A (zh) 用来实现共用磁盘阵列管理功能的方法和系统
CN1992723A (zh) 自治地保持高可用性网络引导服务的装置、系统和方法
CN106776123B (zh) 一种容灾实时数据复制方法及系统、备份客户端
US20050210314A1 (en) Method for operating storage system
JP6136629B2 (ja) ストレージ制御装置,ストレージシステム,および制御プログラム
CN104994168A (zh) 分布式存储方法及分布式存储系统
CN105354113A (zh) 一种服务器、管理服务器的系统和方法
CN1278254C (zh) 确定高可用性集群之活跃度的方法和系统
JP2005056392A (ja) 地理的ミラーリングに関するリソースの妥当性検査およびランキングのための方法および装置
CN105389231A (zh) 一种数据库双机备份方法及系统
JP2009265973A (ja) データ同期システム、障害復旧方法、及び、プログラム
JP2008276281A (ja) データ同期システム、方法、及び、プログラム
JP2006293447A (ja) ストレージバックアップサービスシステム、およびストレージバックアップサービス方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20090211

Termination date: 20190330