CN108604202B - 并行处理系统的工作节点重建 - Google Patents

并行处理系统的工作节点重建 Download PDF

Info

Publication number
CN108604202B
CN108604202B CN201780009101.7A CN201780009101A CN108604202B CN 108604202 B CN108604202 B CN 108604202B CN 201780009101 A CN201780009101 A CN 201780009101A CN 108604202 B CN108604202 B CN 108604202B
Authority
CN
China
Prior art keywords
node
mpi
distributed processing
nodes
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780009101.7A
Other languages
English (en)
Other versions
CN108604202A (zh
Inventor
任大齐
文建环
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN108604202A publication Critical patent/CN108604202A/zh
Application granted granted Critical
Publication of CN108604202B publication Critical patent/CN108604202B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/16Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)
  • Debugging And Monitoring (AREA)

Abstract

一种方法包括:在分布式处理集群的每个工作节点中创建通信代理;在分布式处理集群之外的节点中创建通信代理作为冗余节点,工作节点和冗余节点形成通信器组;使用通信代理对分布式处理集群中的每个工作节点进行编号和标识;使用分布式处理集群的节点间的通信代理检测分布式处理工作节点故障;使用通信代理从通信器组的其中一个冗余节点中生成新工作节点作为新工作节点;使用通信代理重建新工作节点以用于分布式处理集群操作;使用通信代理启动新工作节点以加入分布式处理集群中与其他工作节点一起进行通信器组中工作节点间的通信。

Description

并行处理系统的工作节点重建
相关申请案交叉申请
本申请要求于2016年5月12日递交的发明名称为“并行处理系统的工作节点重建”的第15/152,796号美国申请案的在先申请优先权,该在先申请的内容以引入的方式并入本文。
技术领域
本发明涉及并行处理系统,尤其涉及重建用于容错并行处理系统的工作节点。
背景技术
在一些用于在一组连接的分布式服务器上利用并行分布式算法处理和生成大数据集的编程模型中,例如MapReduce,使用非工作保存检测/重启模型进行容错。主节点监测每个工作节点的状态。一旦检测到工作节点故障,主节点在其他工作节点上重新调度受影响的任务,以恢复丢失的中间数据。然后将故障的工作节点从组中移除。工作节点总数减一。在大规模系统中,减少工作节点数量可能会降低整个系统的吞吐量。
发明内容
一种方法包括:在分布式处理集群的每个工作节点中创建通信代理;在分布式处理集群之外的节点中创建通信代理作为冗余节点,工作节点和冗余节点形成通信器组;使用通信代理对分布式处理集群中的每个工作节点进行编号和标识;使用分布式处理集群的节点间的通信代理检测分布式处理工作节点故障;使用通信代理从通信器组的其中一个冗余节点中生成新工作节点作为分布式处理集群中的新工作节点;使用通信代理重建新工作节点以用于分布式处理集群操作;使用通信代理启动新工作节点以加入分布式处理集群中与其他工作节点一起进行通信器组中工作节点间的通信。
一种计算机实现的分布式处理系统包括:多个分布式节点,所述分布式节点具有处理电路,其中每个节点具有耦合到处理电路的存储设备;代码,存储在每个节点的存储设备上,用于由处理电路执行以执行操作。所述操作包括:在分布式处理集群的每个工作节点中创建通信代理;在分布式处理集群之外的节点中创建通信代理作为冗余节点,工作节点和冗余节点形成通信器组;使用通信代理对分布式处理集群中的每个工作节点进行编号和标识;使用分布式处理集群的节点间的通信代理检测分布式处理工作节点故障;使用通信代理从通信器组的其中一个冗余节点中生成新工作节点作为分布式处理集群中的新工作节点;使用通信代理重建新工作节点以用于分布式处理集群操作;使用通信代理启动新工作节点以加入分布式处理集群中与其他工作节点一起进行通信器组中工作节点间的通信。
在一些实施例中,一种节点包括:处理电路;存储设备,所述存储设备耦合到处理电路;代码,存储在存储设备上,用于由处理电路执行以执行操作。所述代码包括:耦合到MPI通信器组的消息传递接口(message passing interface,简称MPI)代理,其中MPI代理用于当节点变成工作节点的Hadoop集群中的工作节点时对节点进行编号和标识。当Hadoop工作节点检测为故障时,可通过通信代理从节点中将节点生成为新工作节点。MPI代理用于重建节点作为新工作节点以用于Hadoop集群操作。节点还用于使用MPI代理启动为新工作节点以加入Hadoop集群中与其他工作节点一起进行通信器组中工作节点间的通信。
附图说明
图1为示例实施例提供的采用消息传递接口(message passing interface,简称MPI)代理和工作节点生成和替换的分布式处理系统的框图;
图2为示例实施例提供的包括具有五个节点和两个备用节点的集群的域的框图;
图3为示例实施例提供的MapReduce-MPI(消息传递接口)Hadoop环境的框图;
图4为示例实施例提供的通信器组初始化流程的流程图;
图5为示例实施例提供的MPI错误处理程序的流程图;
图6为示例实施例提供的示出发生故障时的系统响应的分布式计算系统的框图;
图7为示例实施例提供的MPI超时阈值调整的时序图;
图8为示例实施例提供的一种通过MPI代理重建工作节点的方法的流程图;
图9为示例实施例提供的响应故障节点检测在系统中重配置Hadoop节点的序列框图;
图10为示例实施例提供的响应Hadoop系统中故障节点检测使用备用节点替换节点的框图;
图11为一种设置冗余节点以将冗余节点配置为新工作节点的方法的流程图;
图12为一种配置冗余节点成为新工作节点的方法;
图13为一种在Hadoop集群中包含新工作节点并启动冗余节点作为工作节点的方法1300的流程图;
图14为示例实施例提供的用于节点实现算法和执行方法的计算机电路的框图。
具体实施方式
以下结合附图进行描述所述附图是描述的一部分并通过图解说明的方式示出可以实施本发明的具体实施例。这些实施例将充分详细描述使本领域技术人员能够实施本发明而且应该明白的是可以使用其它实施例并且在不脱离本发明的范围的情况下可以做出结构上、逻辑上、电学上的改变。因此以下示例实施例的描述并不当作限定,本发明的范围由所附权利要求书界定。
本文描述的功能或算法可以在一实施例中的软件中实施。该软件可包含计算机可执行指令,这些计算机可执行指令存储在计算机可读介质上或者计算机可读存储设备上,如一个或多个非瞬时性存储器或其它类型的本地或联网的硬件存储设备。此外,这些功能对应模块,这些模块可以是软件、硬件、固件或其任意组合。多个功能可根据需要在一个或多个模块中执行,所描述的实施例仅为示例。该软件可在数字信号处理器、ASIC、微处理器上执行或者在个人计算机、服务器、或其它计算机系统等其它类型的计算机系统上运行的处理器上执行,从而将这些计算机系统转换成一个专门编程的机器。
首先描述了一种用于具有多个工作节点和任务管理与通信机制的分布式并行处理系统的框架,然后描述了在系统中检测、重建并替换故障工作节点,从而避免故障节点降低系统性能。
MapReduce(实施MapReduce时的Hadoop)是如图1中框图形式100示出的一种开源软件框架,用于110、120、123和125处指示的节点上的大数据集的分布式存储和分布式处理。节点110为主节点,节点120、123和125代表多个工作节点。Hadoop分布式文件系统(Hadoop distributed file system,简称HDFS)是130和135处指示的一种与每个节点关联的分布式可扩展便携式文件系统。HDFS可使用Java编写,用于Hadoop框架100中。一个Hadoop集群名义上具有115处指示的单个名称节点以及140和145处指示的多个数据节点。冗余选项可用于名称节点。每个数据节点140和145使用针对HDFS的块协议通过网络提供数据块。文件系统使用TCP/IP(传输控制协议/互联网协议)套接字150通过互联网等网络160进行通信。使用框架100的客户端可使用远程过程调用(remote procedure call,简称RPC)进行相互间通信。
HDFS在多个机器上存储大文件(通常在千兆字节到兆兆字节的范围内)。HDFS通过在多个节点上复制数据来实现可靠性。
Hadoop-0.23中的下一代MapReduce称为MapReduce 2.0(MPv2)或者YARN。HadoopYARN具有全局资源管理器(ResourceManager,简称RM)和每个应用的应用管理器(ApplicationMaster,简称AM)。170处示出的资源管理器也是调度器,是在系统中的所有应用之间仲裁资源的最终主体。180和185处示出的节点管理器是每个机器的框架代理,负责监测容器的资源使用(CPU、存储器、磁盘、网络)并报告给资源管理器/调度器170。
每个应用的应用管理器187和188实际上是一个框架专用库,用于从资源管理器170协商资源,以及与节点管理器180和185合作以执行并监测任务。资源管理器170有两个主要组成部分:调度器和应用管理器。调度器负责为各种运行中的应用分配资源,这些应用受制于容量、队列等熟悉约束条件。调度器是一个单纯的调度器,不用于监测或跟踪应用状态。调度器也不保证重启应用故障或硬件故障导致的故障任务。调度器根据应用的资源需求执行调度功能,根据资源容器的抽象概念实现该功能,资源容器包括存储器、CPU、磁盘、网络等元件。
MapReduce是一种编程模型,是在一组连接的分布式服务器,也称为节点、工作节点或数据节点,上利用并行分布式算法处理和生成大数据集的相关实现。196处示出的每个节点中的消息传递接口(message passing interface,简称MPI)代理执行减少和分散操作,以分配在节点上执行的任务部分。MPI是没有数据局部性的消息传递接口。可以在并行处理节点组的节点间发送数据以执行任务。
框架100示出的与Hadoop分布式文件系统一起使用的MapReduce-MPI复制数据,使得节点可以使用本地存储,从而使数据从磁盘等本地存储流出并直接提供给节点中的处理器。MapReduce利用本地存储,以避免处理大量数据时的网络瓶颈。
MapReduce程序可以由Map()流程(方法)和Reduce()方法组成。Map()流程(方法)执行过滤和排序(例如,按照名字将一群人排成队列,一队一个名字),Reduce()方法执行总结操作(例如,计算每队中的人数,生成名字频率)。“MapReduce系统”(也称为“基础设施”或“框架”)通过编排分布式节点,并行运行各种任务,管理系统各部分间的所有通信和数据传递,以及提供冗余和容错来协调处理。
框架100继承了Hadoop的特征,能够支持复杂迭代MPI应用并提高其计算效率。MPI有助于监测和管理Hadoop集群资源。Hadoop兼容运行时间库并行执行计算和管理。MPI任务作为正常任务启动,以最大化计算效率。具有MPI的迭代MapReduce框架100具有广泛的潜在用途,例如,可以被包含一个或多个MapReduce迭代的任何应用使用,可以在Hadoop的Map阶段或Reduce阶段调用串行或并行(MPI)计算。
MPI管理的MapReduce形式设计用于促进异步分布式MapReduce处理。MP-MPI等库根据该方法设计。它允许MPI在集群中的每个节点上运行,推进MPI映射和归约操作以调用用户自定义的map()和reduce()函数。MPI在MapReduce操作期间对工作节点中每个处理器分配的数据的内存和格式进行精确控制。MP-MPI库发出调用以执行映射、归约或数据转移操作,这需要所有处理器参与并完成操作。库中的MPI维持其传统的MPI_Send和MPI_Recv模式在使用大量聚合消息的处理器对之间调用,以提高带宽性能和降低时延成本。
在MapReduce中,非工作保存检测/重启模型用于容错。主节点,例如主节点110,监测每个工作节点的状态。一旦检测到工作节点故障,主节点在其他工作节点上重新调度受影响的任务,以恢复丢失的中间数据。然后将故障的工作节点从组中移除。工作节点总数减一。在大规模系统中,减少工作节点数量可能会降低整个系统的吞吐量。本发明实施例中,从一组预留节点中生成新节点并替换故障节点,从而维持系统吞吐量。
图2为包括具有处理元件(PE0-4)的五个节点(N0-4)的MapReduce-MPI Hadoop集群210的域200的框图。另外,215处示出了两个预留资源,即具有PE5-6的节点N5-6。集群210中的节点和预留资源215是通信器组220的一部分。通信器组中的每个节点,包括冗余节点,具有在其中创建的一个MPI代理。使用MPI代理对集群210中的每个节点进行编号和标识。域200还可以包括不在通信器组220中的其他节点N7-10。集群中的节点通过IP网络完全连接。网络所提供的TCP连接一次可以持续几个小时到几天。这种连接提供一个优秀的虚拟并行平台用于运行Hadoop集群。心跳可用于检查此类虚拟集群中的网络连接:连接的各端周期性向其对端发送小数据包(一次“心跳”);如果对端在特定时间段内未收到心跳,则认为连接中断。问题在于,TCP本身不提供心跳,并且当连接断开时TCP端点不会得到通知,从而阻止较高TCP层做出正确反应,导致TCP端点一直不会退出,并一直尝试与不可达的对端通信。应用可被更高级应用重新初始化,例如MPI_INIT。对某些类型的计算应用,尤其是有高可用性需求的计算应用,缺失故障通知是一个关键问题。
图1中的MapReduce-MPI管理器190将使用C个节点(Hadoop集群)执行Hadoop应用。如果发生故障,多个冗余节点R可用于备份任何工作节点。如图2中的简化实例所示,C=5,R=2。
主节点110使用MPI,用MPI_COMM_WORLD初始化通信器组220。一个通信器代表由MPI初始化的一组有序节点中的一个节点。主节点110依次从分布式系统的所有通信器中收集信息。
MPI代理196是预先安装在集群中的每个节点中的软件代理。图3为多级MPI代理的组件和功能的图表。级别310中,MPI代理安装在主节点、从节点和冗余节点中。级别320中,每个节点都支持Hadoop应用。级别330中,在主节点110中,Hadoop资源管理器170监听MPI故障报告并决定是否以及何时重建新工作节点。330中,在工作节点中,Hadoop节点管理器180和185监听报告并向Hadoop主节点110发送错误消息。330中,预先安装冗余节点作为工作节点。级别340中,监测节点故障的所有MPI从节点向Hadoop应用报告故障。冗余节点中,预先安装了MPI代理。级别350中,MPI主节点110和从节点都被初始化为MPI通信器。预先安装有MPI代理的冗余节点处于活跃状态并通过TCP/IP网络160连接,但不初始化为MPI通信器。底层360是分布式操作环境和TCP/IP网络,可以为无线网络。
图4为通信器组初始化流程400的流程图。410中,从主节点110接收的通信器总数=C。420中,通过MPI_INIT和MPI_COMM_WORLD使用n=C+R个通信器初始化通信器组。R为冗余通信器数量。在430中收集来自所有通信器的信息。收集到所有信息后,在440中更新建立的状态。在450中,进入正常操作模式,允许每个节点通过MPI进行通信。
MapReduce的实施确保输入数据在多个节点中是冗余的。如果节点发生故障,基于输入数据的任务可以在承载该数据副本的另一节点上重启。
MPI使用检查点备份容错任务状态,这需要周期性系统快照和在永久存储单元中存储应用状态信息。如果发生故障,可以检索最近的状态信息并从检查点恢复系统。检查点保存在不受单个计算元件故障影响的永久存储单元中。
在MapReduce-MPI框架100中,MPI检查点机制在主节点110上形成检查点,主节点110写入重启应用所需的数据。以下为传统的MPI检查点方法:首先,用户负责确保保存了所有数据。检查点在程序中的特定点上获得。重新创建MPI和Hadoop集群后,从之前的检查点等存储机制恢复备份数据的过程通常可以使用现有方法进行。
MPI有高度准确且完整的故障检测器。当应用尝试通过函数返回码和相关通信器上设置的错误处理程序与故障过程直接或间接通信时,会收到过程故障通知。设计的MPI机制实现了一种恢复和继续的方案,如果在原始处理器或节点中保持活动过程时发生错误,则只重新生成故障过程。
为了最小化故障恢复过程对系统的影响,在一实施例中,MPI错误处理程序等组件周期性检查MPI通信器的状态。如果检测到通信器故障,MPI将尝试重新连接。图5为MPI错误处理程序MPI_INIT过程500的流程图。510中,MPI_INIT与每个机器ping并建立连接,建立包括所有通信器的通信组,并确保所有通信器已启动且可用。520中,过程500发送大小为n的节点号码、节点名称、MPI过程将在上面运行的文件夹路径以及具有应用指令的文件名称。530中,使用远程过程调用(remote procedure call,简称RPC)来初始化独立的长期TCP连接。
540中,节点并行执行任务。每个节点可以部署多个线程。如果状态为关闭,则假定节点故障。如果发生通信故障,例如过程中止或网络链路故障,MPI实施返回错误码。550中,MPI_Comm_Spawn用于创建通信器。对于并行工作节点,这是形成通信器组的一种更简单的方式。当一个工作节点死亡时,MPI_Comm_spawn替换该节点并以不少于之前数量的工作节点继续进行处理。
560中,并行工作节点的过程可以使用普通通信器进行互相通信。这种情况下的容错存在于整个主/从结构中。570中,MPI过程500发送大小为n的节点号码、节点名称、MPI过程将在上面运行的文件夹路径以及具有应用指令的文件名称。RPC重新初始化独立的长期TCP连接。580中,MPI从存储加载检查点。590中,Hadoop节点独立于MPI应用进行并行执行。
在MapReduce-MPI框架的应用层,Hadoop通过将变量与可配置阈值进行比较来推断故障。
图6为示出发生故障时Hadoop和MPI如何响应的分布式计算系统600的框图。示出系统600具备主节点610和从节点615和616。如图1所示,主节点610包括MPI代理620和Hadoop资源管理器625。从节点包括节点管理器630和数据节点640。
Hadoop在任务执行过程中不断更新变量。Hadoop不在不同任务间共享故障信息,因为HDFS的设计考虑了可扩展性。为了避免给名称节点645造成过大负担,大多数功能,包括故障检测和恢复,都属于数据节点640。Hadoop没有有效的方法来区分通信网络中的拥塞和过载,通常都视其为故障。
Hadoop通信基于长期TCP连接。如650处所示,Hadoop可以长时间(默认为10分钟)等待无响应节点。工作节点每3s向主节点发送心跳,反过来,主节点每200s检查是否有工作节点600s没有发送心跳,以检测工作节点故障。如650处所示,如果一个工作节点被宣布死亡,故障发生时运行于其上的任务在其他节点上重启。如果任务仍在进行中且包含归约函数,在该死亡节点上完成的映射任务也进行重启。
如660处所示,Hadoop使用连接错误和超时来防止数据节点故障。如果超时或者现有连接断开但HDFS操作继续,从名称节点获取一组新的源节点或目的节点。初始任务和SE任务都可以遭遇超时,读取超时和连接超时以60s为基准,写入超时以480s为基准。绝对超时值存在5s到15s的差异,这取决于HDFS写入管道中数据节点的位置。650处,MPI响应检测到的故障,丢弃故障节点并生成新节点。
图7为MPI超时阈值调整的时序图700。不同超时变量使用推测执行算法检测影响Hadoop数据节点和任务跟踪器的连接故障。这种情况下的超时被谨慎地选择,以适应数据中心常见的暂时拥塞事件。MPI比Hadoop对连接故障更敏感。即使没有因为超时产生MPI_Error,如果程序正在使用MPI_Send和MPI_Recv等MPI通信块,指示为Hadoop超时阈值710的Hadoop冗长等待设置将默认阻断MPI程序10分钟。
为了避免在非时间关键型应用的Hadoop超时阈值内发送MPI_Error消息,可以调整MPI运行时间以容忍Hadoop等待时间。此时,程序应使用以下非阻断点对点通信原语:MPI_Isend、MPI_Irecv和MPI_Iprobe。如图,然后可以实现MPI超时阈值715。如果可以取消待处理通信,可以使用MPI_Cancel来有效释放用户资源,例如发送或接收缓存。
图8为一种通过MapReduce MPI框架中的MPI代理重建工作节点的方法800的流程图。810中,MPI初始化通信器组。820中,使用RPC收集节点信息,以建立TCP通信组。830中,通过TCP连接进行分布式处理。840中,检测到节点发生故障。850中,用新节点替换故障节点。850中,MPI也初始化包括新节点的新通信器组。860中,将通信器组信息提供给RPC。870中,从前一个检查点恢复数据。在一实施例中,可以从云存储恢复数据。880中,根据850中形成的新组,或者如果840中没有数据节点发生故障,则根据820中建立的先前TCP通信组进行当前TCP连接的分布式处理。在执行处理时840中的故障节点检测可以继续进行,以允许实时节点故障检测和替换,并响应故障和替换,初始化新通信器组。
图9为响应系统910的第二表示中的故障节点检测,在系统900中重配置Hadoop节点的序列框图。在系统920中生成新节点以替换故障节点,在系统930中使用重配置的节点进行重配置和并行执行。在一实施例中,系统900包括四个节点,其中三个节点在Hadoop集群935中运行,一个节点为预留节点。在另一实施例中,系统可包括更多节点,例如几百个或几千个节点或者更多。每个节点包括待执行的应用、运行时间码以及TCP和MPI通信层。
MPI_INIT用于与每个机器/节点ping和建立连接,建立包括所有通信器的通信组,并确保所有通信器已启动且可用。MPI过程发送大小为n的节点号码、节点名称、MPI过程将在上面运行的文件夹路径以及具有应用指令的文件名称。RPC初始化独立的长期TCP连接。
系统900以并行的方式进行执行,每个节点可以部署多个线程。如果状态为关闭,则假定节点故障。如果发生通信故障,例如过程中止或网络链路故障,MPI实施用于返回错误码。
主过程使用MPI_Comm_Spawn创建互联通信器。对于并行工作节点,这是形成通信器组的一种更简单的方式。如系统910中所示,当一个工作节点死亡时,MPI_Comm_spawn替换该节点并以不少于之前数量的工作节点继续进行处理。如920和940处所示,节点2发生故障并被节点3替换。
并行工作节点的过程可以使用普通互联通信器进行互相通信。这种情况下的容错存在于整个主/从结构中。920处,MPI过程发送大小为n的节点号码、节点名称、MPI过程将在上面运行的文件夹路径以及具有应用指令的文件名称。930处,RPC重新初始化独立的长期TCP连接。MPI从存储加载检查点。所有Hadoop节点独立于MPI应用进行并行执行。
图10为响应Hadoop系统1000中故障节点检测使用备用节点替换节点的框图。客户端1010启动资源管理器接收到的作业,资源管理器作为作业跟踪器1015运行在名称节点或主节点上,将任务映射到多个数据节点1020和1025上。对应于节点1020的节点故障,通过未能接受到状态更新而被检测到。如1040处所示,备用节点1030经过MPI信道加载节点1020先前执行的任务的数据从而替换节点1020,并更新通信器组。备用节点1030还和原始节点1025一起发送状态更新用于故障节点检测。
图11为一种设置冗余节点以将冗余节点配置为新工作节点的方法1100的流程图。1110中,预先安装冗余节点并为其预配置和工作节点相同的Hadoop/Yarn环境。这使得集群中所有工作节点和冗余节点的环境一致。1120中,在冗余节点中安装MPI代理以配置新节点。
图12为一种配置冗余节点成为新工作节点的方法1200的流程图。当冗余节点生成为通信器组中潜在的新工作节点后,执行该方法。Hadoop的Java配置由两种重要的配置文件驱动:只读默认配置-core-default.xml、hdfs-default.xml、yarn-default.xml和mapred-default.xml以及站点特定配置-etc/hadoop/core-site.xml、etc/hadoop/hdfs-site.xml、etc/hadoop/yarn-site.xml和etc/hadoop/mapred-site.xml。通过etc/hadoop/hadoop-env.sh和etc/hadoop/yarn-env.sh文件设置站点特定值,从而控制分布bin/目录的Hadoop脚本建立。为了配置Hadoop集群,配置Hadoop守护进程执行环境并获取Hadoop守护进程配置参数。
HDFS守护进程是名称节点、次名称节点和数据节点。YARN守护进程是资源管理器、节点管理器和Web应用代理。如果要使用MapReduce,将运行MapReduce作业历史服务器。对于大型安装,通常运行在不同主机上。
1210中,MPI代理使用Hadoop集群主机名/IP、HDFS名称节点、MapReduce作业跟踪器或资源管理器的信息更新新节点。配置现有HDFS名称节点和MR作业跟踪器(YARN中的资源管理器)的主机名/IP。
1220中,MPI代理将其他数据节点或名称节点的设置复制到新节点,例如,从core-site.xml、hdfs-site.xml、mapred-site.xml、主节点或从文件复制设置。在hadoop-env.sh中导出Java主页。
1230中,MPI代理将配置目录从其他工作节点复制到新节点。
图13为一种在Hadoop集群中包含新工作节点并启动冗余节点作为工作节点的方法1300的流程图。
1310中,例如,MPI代理发出命令$hadoop_home/bin/start-dfs.sh使得新数据节点准备好存储数据,从而启动新节点。
1320中,例如,MPI代理使用$hadoop_home/bin/hadoop-daemon.sh启动作业跟踪器过程,使得新节点参与MapReduce作业。
1330中,新节点进行工作时MPI代理监测并报告状态。
1340中,MPI代理重新平衡hdfs,例如发出命令以重新平衡集群$hadoop_home/bin/start-balancer.sh。
图14为示例实施例提供的用于分布式处理系统中的节点实现算法和执行方法的电路的框图。不需要在各实施例中使用所有组件。例如,客户端、服务器和网络资源可以分别使用不同组的组件,或者例如在服务器的情况下,使用更大的存储设备。
一种示例计算设备计算机1400可包括处理单元1402、存储器1403、可移动存储器1410和不可移动存储器1412。虽然该示例计算设备图示描述为计算机1400,但在不同实施例中计算设备可以是不同形式。例如,计算设备还可以为分布式处理系统中的节点、智能手机、平板电脑、智能手表或包括图14所图示描述的相同或类似元件的其他计算设备。智能手机、平板电脑、智能手表等设备通常统称为移动设备或用户设备。进一步的,虽然各种数据存储元件图示为计算机1400的一部分,可选的,存储器还可包括通过网络可访问的云存储器,例如互联网存储器或服务器存储器。
存储器1403可包括易失性存储器1414和非易失性存储器1408。计算机1400可包括或访问计算环境。该计算环境包括各种计算机可读介质,如易失性存储器1414和非易失性存储器1408、可移动存储器1410和不可移动存储器1412。计算机存储器包括随机存取存储器(random access memory,简称RAM)、只读存储器(read-only memory,简称ROM)、可擦除可编程只读存储器(erasable programmable read-only memory,简称EPROM)和电可擦除可编程只读存储器(electrically erasable programmable read-only memory,简称EEPROM)、闪存或其它存储器技术、只读光盘(compact disc read-only memory,简称CDROM)、数字多功能光盘(digital versatile disc,简称DVD)或其它光盘存储器、盒式磁带、磁带、磁盘存储器或其它磁存储设备,或者任何其它能够存储计算机可读指令的介质。
计算机1400可包括或访问计算环境。该计算环境包括输入设备1406、输出设备1404和通信连接1416。输出设备1404可包括显示设备,例如触摸屏,触摸屏也可作为输入设备。输入设备1406可包括触摸屏、触摸板、鼠标、键盘、相机、一个或多个设备专用按钮、集成在或通过有线或无线数据连接耦合到计算机1400中的一个或多个传感器、以及其他输入设备中的一种或多种。计算机可使用通信连接在联网环境中操作,以连接到数据库服务器等一个或多个远程计算机。远程计算机可包括个人计算机(personal computer,简称PC)、服务器、路由器、网络PC、对端设备或其他公共网络节点等。通信连接可包括局域网(LocalArea Network,简称LAN)、广域网(Wide Area Network,简称WAN)、蜂窝、WiFi、蓝牙或其他网络。
存储在计算机可读介质上的计算机可读指令可由计算机1400的处理单元1402执行。硬盘驱动器、CD-ROM和RAM是产品的一些示例,所述产品包括存储设备等非瞬时性计算机可读介质。术语计算机可读介质和存储设备不包括过于短暂的载波。例如,计算机程序1418可包含在CD-ROM中,并从CD-ROM加载到硬盘驱动器,所述计算机程序1418能够提供通用技术来对数据访问进行访问控制检查和/或对基于组件对象模型(component objectmodel,简称COM)的系统中的服务器之一执行的操作进行访问控制检查。计算机可读指令允许计算机1400在具有多个用户和服务器的基于COM的计算机网络系统中提供通用访问控制。存储器也可包括联网存储器,例如1420处示出的存储区域网络(storage areanetwork,简称SAN)。
例如:
1.例1中的一种方法包括:在分布式处理集群的每个工作节点中创建通信代理;在分布式处理集群之外的节点中创建通信代理作为冗余节点,工作节点和冗余节点形成通信器组;使用通信代理对分布式处理集群中的每个工作节点进行编号和标识;使用分布式处理集群的节点间的通信代理检测分布式处理工作节点故障;使用通信代理从通信器组的其中一个冗余节点中生成新工作节点作为分布式处理集群中的新工作节点;使用通信代理重建新工作节点以用于分布式处理集群操作;使用通信代理启动新工作节点以加入分布式处理集群中与其他工作节点一起进行通信器组中工作节点间的通信。
2.根据例1所述的方法,分布式处理集群包括Hadoop集群。
3.根据例2所述的方法,通信代理包括消息传递接口(message passinginterface,简称MPI)代理,通信器组包括MPI通信器组。
4.根据例3所述的方法,还包括:使用MPI在新节点中创建应用管理器,分配应用给通信器组中的工作节点执行。
5.根据例3至例4中任一项所述的方法,消息传递接口使用MPI函数复制、修改和编辑新生成的工作节点中的文件。
6.根据例1至例5中任一项所述的方法,所述生成新工作节点还包括:确定要生成的工作节点的类型。
7.根据例1至例6中任一项所述的方法,还包括:接收事务;生成执行事务的任务;将要执行的任务分配给通信器组中的工作节点和新工作节点。
8.根据例1至例7中任一项所述的方法,还包括:使用每个节点中的消息传递接口(message passing interface,简称MPI)执行以下操作:使用命令或脚本启动作为服务的节点管理器;编辑节点管理器环境变量;修改节点管理器属性。
9.例9中的一种计算机实现的分布式处理系统包括:多个分布式节点,所述分布式节点具有处理电路,其中每个节点具有耦合到处理电路的存储设备;代码,存储在每个节点的存储设备上,用于由处理电路执行以执行操作。所述操作包括:在分布式处理集群的每个工作节点中创建通信代理;在分布式处理集群之外的节点中创建通信代理作为冗余节点,工作节点和冗余节点形成通信器组;使用通信代理对分布式处理集群中的每个工作节点进行编号和标识;使用分布式处理集群的节点间的通信代理检测分布式处理工作节点故障;使用通信代理从通信器组的其中一个冗余节点中生成新工作节点作为分布式处理集群中的新工作节点;使用通信代理重建新工作节点以用于分布式处理集群操作;使用通信代理启动新工作节点以加入分布式处理集群中与其他工作节点一起进行通信器组中工作节点间的通信。
10.根据例9所述的分布式处理系统,分布式处理集群包括Hadoop集群。
11.根据例10所述的分布式处理系统,新节点为预先安装有与工作节点一致的Hadoop软件的多个冗余节点中的一个。
12.根据例11所述的分布式处理系统,通信器组中的工作节点和冗余节点中的每个节点包括到网络的TCP/IP连接,通信代理使用消息传递接口通过网络向分布式计算系统管理器传递消息。
13.根据例10至例12任一项所述的分布式处理系统,通信代理包括消息传递接口(message passing interface,简称MPI)代理,通信器组包括MPI通信器组。
14.根据例13所述的分布式处理系统,消息传递接口使用MPI_Comm_spawn函数生成新工作节点,所述生成新工作节点还包括:确定要生成的工作节点的类型。
15.根据例9至例14中任一项所述的分布式处理系统,操作还包括:接收事务;生成执行事务的任务;将要执行的任务分配给通信器组中的工作节点和新工作节点。
16.一种节点包括:处理电路;存储设备,所述存储设备耦合到处理电路;代码,存储在存储设备上,用于由处理电路执行以执行操作。所述代码包括:耦合到MPI通信器组的消息传递接口(message passing interface,简称MPI)代理,其中MPI代理用于当节点变成工作节点的Hadoop集群中的工作节点时对节点进行编号和标识;当Hadoop工作节点检测为故障时,可通过通信代理从节点中将节点生成为新工作节点;MPI代理用于重建节点作为新工作节点以用于Hadoop集群操作;节点用于使用MPI代理启动为新工作节点以加入Hadoop集群中与其他工作节点一起进行通信器组中工作节点间的通信。
17.根据例16所述的节点,MPI代理使用MPI_Comm_spawn函数生成新工作节点,所述生成新工作节点还包括:确定要生成的工作节点的类型。
18.根据例16至例17任一项所述的节点,MPI代理为新节点配置现有Hadoop分布式文件系统(Hadoop Distributed File System,简称HDFS)名称节点和映射归约(MapReduce,简称MP)作业跟踪器或资源管理器的主机名/IP。
19.根据例16至例18任一项所述的节点,代码还包括应用管理器,用于管理节点变成工作节点时节点上执行的任务。
20.根据例16至例19任一项所述的节点,电路上执行的代码还执行以下操作:从作业跟踪器或在Hadoop集群的主节点上运行的资源管理器接收任务并执行。
虽然上文详细描述了几个实施例但是可能进行其它修改。例如为了获得期望的结果附图中描绘的逻辑流不需要按照所示的特定顺序或者先后顺序。可以提供其它步骤或者从所描述的流程中去除步骤,所描述的系统中可以添加或移除其它组件。其它实施例可以在所附权利要求书的范围内。

Claims (18)

1.一种分布式处理系统中的节点重建方法,其特征在于,包括:
在分布式处理集群的每个工作节点中创建通信代理;
在所述分布式处理集群之外的节点中创建通信代理作为冗余节点,所述工作节点和所述冗余节点形成通信器组;
使用所述通信代理对所述分布式处理集群中的每个工作节点进行编号和标识;
使用所述通信代理检测分布式处理工作节点故障;
通过所述通信代理从所述通信器组的其中一个冗余节点中生成新工作节点,作为所述分布式处理集群中的新工作节点;
使用所述通信代理与分布式处理集群一同操作来重建所述新工作节点;并且,
启动所述新工作节点以加入所述分布式处理集群,以利用所述通信代理在通信器组的工作节点之间的通信与其他工作节点一起工作;并且,
使用每个节点中的消息传递接口MPI执行以下操作:
通过命令或脚本启动作为服务的节点管理器;
编辑节点管理器环境变量;
修改节点管理器属性。
2.根据权利要求1所述的方法,其特征在于,所述分布式处理集群包括Hadoop集群。
3.根据权利要求2所述的方法,其特征在于,所述通信代理包括MPI代理,所述通信器组包括MPI通信器组。
4.根据权利要求3所述的方法,其特征在于,还包括:使用所述消息传递接口在新工作节点中创建应用管理器,分配应用给所述通信器组中的工作节点执行。
5.根据权利要求1所述的方法,其特征在于,所述生成新工作节点还包括:
确定要生成的工作节点的类型。
6.根据权利要求1所述的方法,其特征在于,还包括:
接收事务;
生成执行所述事务的任务;
将要执行的任务分配给所述通信器组中的工作节点,包括所述新工作节点。
7.一种计算机实现的分布式处理系统,其特征在于,包括:
具有处理电路的多个分布式节点,其中
每个节点具有耦合到所述处理电路的存储设备;
代码,存储在每个节点的存储设备上,用于由所述处理电路执行以下操作:
在分布式处理集群的每个工作节点中创建通信代理;
在所述分布式处理集群之外的节点中创建通信代理作为冗余节点,所述工作节点和冗余节点形成通信器组;
使用所述通信代理对所述分布式处理集群中的每个工作节点进行编号和标识;
使用所述通信代理检测分布式处理工作节点故障;
通过所述通信代理从所述通信器组的其中一个冗余节点中生成新工作节点,作为分布式处理集群中的新工作节点;
使用所述通信代理与分布式处理集群一同操作来重建所述新工作节点;
启动所述新工作节点以加入所述分布式处理集群,以利用所述通信代理在通信器组的工作节点之间的通信与其他工作节点一起工作;并且,
使用每个节点中的消息传递接口MPI执行以下操作:
通过命令或脚本启动作为服务的节点管理器;
编辑节点管理器环境变量;
修改节点管理器属性。
8.根据权利要求7所述的分布式处理系统,其特征在于,所述分布式处理集群包括Hadoop集群。
9.根据权利要求8所述的分布式处理系统,其特征在于,新工作节点为预先安装有与所述工作节点一致的Hadoop软件的多个冗余节点中的一个。
10.根据权利要求9所述的分布式处理系统,其特征在于,所述通信器组中的工作节点和冗余节点中的每个节点包括到网络的TCP/IP连接,所述通信代理使用所述MPI通过网络向分布式计算系统管理器传递消息。
11.根据权利要求8所述的分布式处理系统,其特征在于,通信代理包括MPI代理,通信器组包括MPI通信器组。
12.根据权利要求11所述的分布式处理系统,其特征在于,所述消息传递接口使用MPI_Comm_spawn函数生成新工作节点,所述生成新工作节点还包括:确定要生成的工作节点的类型。
13.根据权利要求7所述的分布式处理系统,其特征在于,操作还包括:
接收事务;
生成执行事务的任务;
将要执行的任务分配给所述通信器组中的工作节点和新工作节点。
14.一种分布式处理系统中的节点,其特征在于,包括:
存储有指令的存储设备;
被配置为执行指令的处理电路以执行以下操作,包括:
提供耦合到MPI通信器组的消息传递接口MPI代理,其中
所述MPI代理被配置为当节点成为Hadoop集群中的工作节点的其中一个工作节点时,对所述节点进行编号和标识;
当Hadoop工作节点检测为故障时,通过通信代理将所述节点生成为新工作节点;
MPI代理被配置为将所述节点重建为所述新工作节点以与所述Hadoop集群一起运行,所述新工作节点使用所述MPI代理与所述MPI通信器组中的其他工作节点进行通信;以及,
使用每个节点中的MPI执行以下操作:
通过命令或脚本启动作为服务的节点管理器;
编辑节点管理器环境变量;
修改节点管理器属性。
15.根据权利要求14所述的节点,其特征在于,所述MPI代理使用MPI_Comm_spawn函数生成新工作节点,所述生成新工作节点还包括:确定要生成的工作节点的类型。
16.根据权利要求14所述的节点,其特征在于,MPI代理为所述新工作节点配置现有Hadoop分布式文件系统HDFS名称节点和MapReduce作业跟踪器或资源管理器的主机名/IP。
17.根据权利要求14所述的节点,其特征在于,所述处理电路还包括应用管理器,用于管理节点变成工作节点时节点上执行的任务。
18.根据权利要求14所述的节点,其特征在于,所述处理电路上执行的代码还执行以下操作:从作业跟踪器或在所述Hadoop集群的主节点上运行的资源管理器接收任务并执行。
CN201780009101.7A 2016-05-12 2017-05-03 并行处理系统的工作节点重建 Active CN108604202B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/152,796 US10203992B2 (en) 2016-05-12 2016-05-12 Worker node rebuild for parallel processing system
US15/152,796 2016-05-12
PCT/CN2017/082845 WO2017193846A1 (en) 2016-05-12 2017-05-03 Worker node rebuild for parallel processing system

Publications (2)

Publication Number Publication Date
CN108604202A CN108604202A (zh) 2018-09-28
CN108604202B true CN108604202B (zh) 2021-01-15

Family

ID=60266768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780009101.7A Active CN108604202B (zh) 2016-05-12 2017-05-03 并行处理系统的工作节点重建

Country Status (3)

Country Link
US (1) US10203992B2 (zh)
CN (1) CN108604202B (zh)
WO (1) WO2017193846A1 (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10412158B2 (en) * 2016-07-27 2019-09-10 Salesforce.Com, Inc. Dynamic allocation of stateful nodes for healing and load balancing
CN107885716B (zh) * 2016-09-29 2020-02-11 腾讯科技(深圳)有限公司 文本识别方法及装置
US20180183695A1 (en) * 2016-12-28 2018-06-28 Intel Corporation Performance monitoring
US10684992B1 (en) * 2017-04-28 2020-06-16 EMC IP Holding Company LLC Causally ordering distributed file system events
FR3082973B1 (fr) 2018-06-22 2020-06-05 Bull Sas Procede de gestion de panne dans un reseau de noeuds base sur une strategie locale
US11436113B2 (en) * 2018-06-28 2022-09-06 Twitter, Inc. Method and system for maintaining storage device failure tolerance in a composable infrastructure
CN109814803B (zh) * 2018-12-17 2022-12-09 深圳创新科技术有限公司 一种分布式存储系统中容错能力自适应调整方法和装置
CN111679925B (zh) * 2019-03-11 2023-06-27 阿里云计算有限公司 数据库故障处理方法、装置、计算设备和存储介质
CN111078371B (zh) * 2019-11-14 2023-04-18 泰康保险集团股份有限公司 基于Flowable流程引擎的支路任务重建方法及装置
US11249793B2 (en) 2019-11-26 2022-02-15 Shoreline Software, Inc. Executing a pipeline command sequence designed for execution on a single node across a fleet of nodes
CN112860787A (zh) * 2019-11-27 2021-05-28 上海哔哩哔哩科技有限公司 分布式主从系统中主节点的切换方法、主节点设备和存储介质
CN111124755B (zh) * 2019-12-06 2023-08-15 中国联合网络通信集团有限公司 集群节点的故障恢复方法、装置、电子设备及存储介质
US11133989B2 (en) 2019-12-20 2021-09-28 Shoreline Software, Inc. Automated remediation and repair for networked environments
US10896060B1 (en) 2020-01-14 2021-01-19 Capital One Services, Llc Resource monitor for monitoring long-standing computing resources
US11157282B2 (en) * 2020-02-18 2021-10-26 Shoreline Software, Inc. Scaling performance across a large number of customer nodes
US11481394B2 (en) 2020-02-24 2022-10-25 Shoreline Software, Inc. Elimination of measurement lag for operations across a large number of customer nodes
US11232074B2 (en) 2020-05-19 2022-01-25 EMC IP Holding Company LLC Systems and methods for searching deduplicated data
US11461140B2 (en) * 2020-05-19 2022-10-04 EMC IP Holding Company LLC Systems and methods for controller-worker architecture for searching a storage system
CN116018586A (zh) * 2020-05-30 2023-04-25 华为技术有限公司 用于车辆应用的锁步处理器恢复
CN114172958B (zh) * 2021-11-19 2023-10-20 云从科技集团股份有限公司 隐私计算节点、系统、方法、装置以及存储介质
US11966292B2 (en) * 2022-05-27 2024-04-23 Hewlett Packard Enterprise Development Lp Fault management in a distributed computer system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5964838A (en) * 1997-09-30 1999-10-12 Tandem Computers Incorporated Method for sequential and consistent startup and/or reload of multiple processor nodes in a multiple node cluster
US7120690B1 (en) * 2001-09-27 2006-10-10 Emc Corporation Managing a distributed directory database
CN102025550A (zh) * 2010-12-20 2011-04-20 中兴通讯股份有限公司 一种分布式集群中数据管理的系统和方法
CN104780146A (zh) * 2014-01-13 2015-07-15 华为技术有限公司 资源管理方法及装置
WO2015127668A1 (en) * 2014-02-28 2015-09-03 Pivotal Software, Inc. Task centric resource scheduling framework

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7418470B2 (en) * 2000-06-26 2008-08-26 Massively Parallel Technologies, Inc. Parallel processing systems and method
US7752421B2 (en) * 2007-04-19 2010-07-06 International Business Machines Corporation Parallel-prefix broadcast for a parallel-prefix operation on a parallel computer
CN102291467B (zh) * 2011-09-15 2014-04-09 电子科技大学 一种适应私有云环境的通信平台和通信方法
US20140047095A1 (en) * 2012-08-07 2014-02-13 Advanced Micro Devices, Inc. System and method for tuning a cloud computing system
CN103780655B (zh) * 2012-10-24 2018-03-06 阿里巴巴集团控股有限公司 一种消息传递接口任务和资源调度系统及方法
KR101994929B1 (ko) * 2012-12-03 2019-07-01 삼성전자주식회사 집합 통신 수행 방법 및 이를 이용한 집합 통신 시스템
CN103457775B (zh) 2013-09-05 2016-09-14 中国科学院软件研究所 一种基于角色的高可用虚拟机池化管理系统
US9626261B2 (en) 2013-11-27 2017-04-18 Futurewei Technologies, Inc. Failure recovery resolution in transplanting high performance data intensive algorithms from cluster to cloud
CN105183531A (zh) * 2014-06-18 2015-12-23 华为技术有限公司 分布式开发平台及其计算方法
US11290524B2 (en) 2014-08-13 2022-03-29 Microsoft Technology Licensing, Llc Scalable fault resilient communications within distributed clusters
US11474874B2 (en) 2014-08-14 2022-10-18 Qubole, Inc. Systems and methods for auto-scaling a big data system
CN104216803A (zh) 2014-09-29 2014-12-17 北京奇艺世纪科技有限公司 一种退服节点的数据备份方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5964838A (en) * 1997-09-30 1999-10-12 Tandem Computers Incorporated Method for sequential and consistent startup and/or reload of multiple processor nodes in a multiple node cluster
US7120690B1 (en) * 2001-09-27 2006-10-10 Emc Corporation Managing a distributed directory database
CN102025550A (zh) * 2010-12-20 2011-04-20 中兴通讯股份有限公司 一种分布式集群中数据管理的系统和方法
CN104780146A (zh) * 2014-01-13 2015-07-15 华为技术有限公司 资源管理方法及装置
WO2015127668A1 (en) * 2014-02-28 2015-09-03 Pivotal Software, Inc. Task centric resource scheduling framework

Also Published As

Publication number Publication date
US20170329648A1 (en) 2017-11-16
WO2017193846A1 (en) 2017-11-16
US10203992B2 (en) 2019-02-12
CN108604202A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
CN108604202B (zh) 并行处理系统的工作节点重建
US10621005B2 (en) Systems and methods for providing zero down time and scalability in orchestration cloud services
Botelho et al. On the design of practical fault-tolerant SDN controllers
US10133619B1 (en) Cluster-wide virtual machine health monitoring
US10664495B2 (en) System and method for supporting data grid snapshot and federation
US9626261B2 (en) Failure recovery resolution in transplanting high performance data intensive algorithms from cluster to cloud
US20180091588A1 (en) Balancing workload across nodes in a message brokering cluster
US20180091586A1 (en) Self-healing a message brokering cluster
US8726274B2 (en) Registration and initialization of cluster-aware virtual input/output server nodes
CN108270726B (zh) 应用实例部署方法及装置
US20140082409A1 (en) Automated node fencing integrated within a quorum service of a cluster infrastructure
US20060242454A1 (en) Scalable method of continuous monitoring the remotely accessible resources against the node failures for very large clusters
US11226753B2 (en) Adaptive namespaces for multipath redundancy in cluster based computing systems
US11550820B2 (en) System and method for partition-scoped snapshot creation in a distributed data computing environment
Latchoumy et al. Survey on fault tolerance in grid computing
Botelho et al. Smartlight: A practical fault-tolerant SDN controller
US20190334990A1 (en) Distributed State Machine for High Availability of Non-Volatile Memory in Cluster Based Computing Systems
US20240004766A1 (en) Selecting a witness service when implementing a recovery plan
US11533391B2 (en) State replication, allocation and failover in stream processing
Ali et al. Probabilistic normed load monitoring in large scale distributed systems using mobile agents
Hursey et al. A composable runtime recovery policy framework supporting resilient HPC applications
CN105468446A (zh) 一种基于Linux的HPC作业调度实现高可用的方法
Engelmann et al. Concepts for high availability in scientific high-end computing
Essa et al. A distributed multi-agents architecture for self healing healthcare data center
Boukerche et al. Towards highly available and scalable high performance clusters

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant