CN108469990A - 一种并行计算方法及系统 - Google Patents

一种并行计算方法及系统 Download PDF

Info

Publication number
CN108469990A
CN108469990A CN201810210540.0A CN201810210540A CN108469990A CN 108469990 A CN108469990 A CN 108469990A CN 201810210540 A CN201810210540 A CN 201810210540A CN 108469990 A CN108469990 A CN 108469990A
Authority
CN
China
Prior art keywords
calculate node
scheduler
computation requests
application system
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810210540.0A
Other languages
English (en)
Inventor
黄汉宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Si Tech Information Technology Co Ltd
Original Assignee
Beijing Si Tech Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Si Tech Information Technology Co Ltd filed Critical Beijing Si Tech Information Technology Co Ltd
Priority to CN201810210540.0A priority Critical patent/CN108469990A/zh
Publication of CN108469990A publication Critical patent/CN108469990A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)

Abstract

本发明涉及一种并行计算方法,包括调度器集群接收应用系统发送的计算请求,为计算请求分配一个空闲的调度器,调度器根据计算请求创建一个请求上下文,将计算请求发送至计算节点集群中的计算节点,挂起请求上下文,并释放调度资源;调度器接收计算节点根据所述计算请求进行运算处理获得运算结果;根据运算结果拉起对应的已挂起的请求上下文,从请求上下文中获取应用系统的连接信息,并据连接信息向应用系统发送所述计算请求的运算结果。本发明将密集计算任务从应用系统中抽离出来,交由专业的计算设备来进行运算,各方各司其职,大大提升了整体效率,计算资源的集中管理也避免了资源浪费。本发明还涉及一种并行计算系统。

Description

一种并行计算方法及系统
技术领域
本发明涉及计算机技术领域,尤其涉及一种并行计算方法及系统。
背景技术
应用系统通常会有多个业务处理模块,每个模块完成特定的运算任务,一般做法是,按一定顺序依次执行各个软件模块,直至完成整个业务处理。
但是,目前这种方式存在以下缺点:业务处理速度慢,总处理时长是所有模块运算时长的总和;运算量大的任务,在应用系统的硬件环境上运行效率不高;各个模块完成运算任务所需的资源不一,不易统一规划、部署和管理;且应用系统的开发人员一般不擅长实行算法逻辑。
发明内容
本发明所要解决的技术问题是针对现有技术的不足,提供一种并行计算方法及系统。
本发明解决上述技术问题的技术方案如下:一种并行计算方法,包括如下步骤:
调度器集群接收应用系统发送的计算请求,为所述计算请求分配一个空闲的调度器,所述调度器根据所述计算请求创建一个请求上下文,将所述计算请求发送至计算节点集群中的计算节点,挂起所述请求上下文,并释放调度资源;其中,所述计算请求为应用系统需要进行密集计算时生成的;
所述调度器接收所述计算节点根据所述计算请求进行运算处理获得运算结果;根据所述运算结果拉起对应的已挂起的请求上下文,从所述请求上下文中获取应用系统的连接信息,并根据所述连接信息向应用系统发送所述计算请求的运算结果。
本发明的有益效果是:本发明将密集计算任务从应用系统中抽离出来,交由专业的计算设备来进行运算。具体地,调度器根据计算请求创建一个请求上下文,在将计算请求发送至计算节点集群中的计算节点后,将计算请求的请求上下文挂起,并释放调度资源,调度器又可以继续去处理应用系统的其他计算请求,而接收到计算请求的计算节点根据计算请求进行运算,获取运算结果,并将运算结果反馈给调度器,调度器进而根据已挂起的请求上下文获取对应的应用系统的连接信息,进而根据连接信息将运算结果成功反馈给应用系统。本发明不同的密集计算任务交由不同计算节点处理,业务处理速度快,不同计算节点可同时执行计算任务,大大缩短了总处理时长;各个计算节点的运算量小,降低了对硬件设备的运行需求;且计算资源统一规划、部署和管理,避免了资源浪费。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述将所述计算请求发送至计算节点集群中的计算节点包括:通过类型匹配和负载算法从所述计算节点集群中选择一个计算节点,将所述计算请求发送至计算节点集群中的所述计算节点。
采用上述进一步方案的有益效果是进一步细化了计算节点所需资源的管理,节约硬件投资。
进一步,所述通过类型匹配和负载算法从所述计算节点集群中选择一个计算节点,将所述计算请求发送至计算节点集群中的所述计算节点包括:
根据所述计算请求包括的目标地址判断目标节点类型,从计算节点集群中属于目标节点类型的计算节点中通过负载均衡方式选择一个计算节点,将所述计算请求发送至选择的所述计算节点。
采用上述进一步方案的有益效果是使计算节点的实现和部署更专业化、精细化,也可以外购计算节点服务,节省系统开发周期和成本。
进一步,所述调度器与应用系统建立Http连接,所述调度器与计算节点建立Http连接。
采用上述进一步方案的有益效果是各个网元之间采用Http协议通信,支持的设备范围广,计算节点的设备类型并不限于大中型计算机或pc服务器,还可以应用于特制的计算设备,如视频解码器、ssl加速卡等等,只需要设备支持http协议即可。
进一步,所述应用系统与调度器之间的调用机制为同步机制,所述调度器与计算节点之间的调用机制为异步机制。
采用上述进一步方案的有益效果是应用系统与调度器之间的调用机制为同步机制,而调度器与计算节点间的调用机制则为异步机制。此种模式既能简化应用系统的接口开发难度,提高接口可用性,又可以充分的利用调度器和计算节点的计算资源。
本发明解决上述技术问题的技术方案如下:一种并行计算系统,包括应用系统、调度器集群和计算节点集群;
所述应用系统用于需要进行密集计算时生成计算请求,并发送至所述调度器集群;
所述调度器集群用于接收应用系统发送的计算请求,为所述计算请求分配一个空闲的调度器,所述调度器根据所述计算请求创建一个请求上下文,将所述计算请求发送至计算节点集群中的计算节点,挂起所述请求上下文,并释放调度资源;
所述计算节点集群中的计算节点用于根据所述计算请求进行运算处理获得运算结果;
所述调度器接收所述计算节点根据所述计算请求进行运算处理获得运算结果;根据所述运算结果拉起对应的已挂起的请求上下文,从所述请求上下文中获取应用系统的连接信息,并根据所述连接信息向应用系统发送所述计算请求的运算结果。
本发明的有益效果是:本发明将密集计算任务从应用系统中抽离出来,交由专业的计算设备来进行运算。具体地,调度器根据计算请求创建一个请求上下文,在将计算请求发送至计算节点集群中的计算节点后,将计算请求的请求上下文挂起,并释放调度资源,调度器又可以继续去处理应用系统的其他计算请求,而接收到计算请求的计算节点根据计算请求进行运算,获取运算结果,并将运算结果反馈给调度器,调度器进而根据已挂起的请求上下文获取对应的应用系统的连接信息,进而根据连接信息将运算结果成功反馈给应用系统。本发明不同的密集计算任务交由不同计算节点处理,业务处理速度快,不同计算节点可同时执行计算任务,大大缩短了总处理时长;各个计算节点的运算量小,降低了对硬件设备的运行需求;且计算资源统一规划、部署和管理,避免了资源浪费。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述调度器具体用于:通过类型匹配和负载算法从所述计算节点集群中选择一个计算节点,将所述计算请求发送至计算节点集群中的所述计算节点。
进一步,所述调度器具体用于:根据所述计算请求包括的目标地址判断目标节点类型,从计算节点集群中属于目标节点类型的计算节点中通过负载均衡方式选择一个计算节点,将所述计算请求发送至选择的所述计算节点
进一步,所述调度器与应用系统建立Http连接,所述调度器与计算节点建立Http连接。
进一步,所述应用系统与调度器之间的调用机制为同步机制,所述调度器与计算节点之间的调用机制为异步机制。
附图说明
图1为本发明实施例提供的一种并行计算方法的示意性流程图;
图2为本发明实施例提供的一种并行计算方法的信令交互示意图;
图3为本发明实施例提供的一种并行计算系统的示意性结构框图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
图1给出了本发明实施例提供的一种并行计算方法的示意性流程图。图2给出了本发明实施例提供的一种并行计算方法的信令交互示意图。如图1和2所示,该并行计算方法包括:
S110,调度器集群接收应用系统发送的计算请求,为所述计算请求分配一个空闲的调度器;
S120,调度器根据所述计算请求创建一个请求上下文;
S130,将所述计算请求发送至计算节点集群中的计算节点,挂起所述请求上下文,并释放调度资源;其中,所述计算请求为应用系统需要进行密集计算时生成的;
S140,调度器接收所述计算节点根据所述计算请求进行运算处理获得运算结果;
S150,根据所述运算结果拉起对应的已挂起的请求上下文,从所述请求上下文中获取应用系统的连接信息;
S160,根据所述连接信息向应用系统发送所述计算请求的运算结果。
具体地,密集计算可以是加解码、加解密等。应用系统可通过F5等负载设备访问调度器集群。此时,调度器集群会分配一个空闲的调度器与应用系统建立连接,调度器将创建一个请求上下文,请求上下文为存储与请求相关的信息的数据结构的集合体,专门处理此次计算请求的所有资源调度,包括与计算节点的交互;通过预设选择算法,如可以为类型匹配和负载算法等,调度器将应用系统的计算请求发送到计算节点集群中某个计算节点,调度器不等待计算节点返回运算结果,先挂起请求上下文,该调度器又可以继续去处理应用系统的其他计算请求;计算节点运算结束后向调度器返回运算结果,调度器将对应已挂起的请求上下文拉起,取得计算发起方连接等信息后,将运算结果返回给发起方应用系统。
上述实施例中,将密集计算任务从应用系统中抽离出来,交由专业的计算设备来进行运算。具体地,调度器根据计算请求创建一个请求上下文,在将计算请求发送至计算节点集群中的计算节点后,将计算请求的请求上下文挂起,并释放调度资源,调度器又可以继续去处理应用系统的其他计算请求,而接收到计算请求的计算节点根据计算请求进行运算,获取运算结果,并将运算结果反馈给调度器,调度器进而根据已挂起的请求上下文获取对应的应用系统的连接信息,进而根据连接信息将运算结果成功反馈给应用系统。本发明实施例为每次计算请求分配一个上下文,由一个分布式的调度框架管理,以异步事件驱动的方式调度,充分利用计算资源;本发明不同的密集计算任务交由不同计算节点处理,业务处理速度快,不同计算节点可同时执行计算任务,大大缩短了总处理时长;各个计算节点的运算量小,降低了对硬件设备的运行需求;且计算资源统一规划、部署和管理,避免了资源浪费。
可选地,作为本发明另一个实施例,将所述计算请求发送至计算节点集群中的计算节点包括:通过类型匹配和负载算法从所述计算节点集群中选择一个计算节点,将所述计算请求发送至计算节点集群中的所述计算节点。
上述实施例中,进一步细化了计算节点所需资源的管理,节约硬件投资。
可选地,作为本发明另一个实施例,通过类型匹配和负载算法从所述计算节点集群中选择一个计算节点,将所述计算请求发送至计算节点集群中的所述计算节点包括:根据所述计算请求包括的目标地址判断目标节点类型,从计算节点集群中属于目标节点类型的计算节点中通过负载均衡方式选择一个计算节点,将所述计算请求发送至选择的所述计算节点。可选地,负载算法可以是轮询、权重等。
上述实施例中,使计算节点的实现和部署更专业化、精细化,也可以外购计算节点服务,节省系统开发周期和成本。
可选地,所述调度器与应用系统建立Http连接,所述调度器与计算节点建立Http连接。上述实施例中,各个网元之间采用Http协议通信,支持的设备范围广,计算节点的设备类型并不限于大中型计算机或pc服务器,还可以应用于特制的计算设备,如视频解码器、ssl加速卡等等,只需要设备支持http协议即可。支持将计算节点集群化,可弹性扩展,具备可伸缩性。
可选地,应用系统与调度器之间的调用机制为同步机制,所述调度器与计算节点之间的调用机制为异步机制。上述实施例中,应用系统与调度器之间的调用机制为同步机制,而调度器与计算节点间的调用机制则为异步机制。此种模式既能简化应用系统的接口开发难度,提高接口可用性,又可以充分的利用调度器和计算节点的计算资源。
上文结合图1至图2,详细描述了根据本发明实施例提供的并行计算方法方法。下面结合图3,详细描述本发明实施例提供的并行计算系统。
图3给出了本发明实施例提供的一种并行计算系统的示意性结构框图。如图3所示,该系统包括应用系统、调度器集群和计算节点集群。应用系统用于需要进行密集计算时生成计算请求,并发送至所述调度器集群;调度器集群用于接收应用系统发送的计算请求,为所述计算请求分配一个空闲的调度器,所述调度器根据所述计算请求创建一个请求上下文,将所述计算请求发送至计算节点集群中的计算节点,挂起所述请求上下文,并释放调度资源;计算节点集群中的计算节点用于根据所述计算请求进行运算处理获得运算结果;调度器接收所述计算节点根据所述计算请求进行运算处理获得运算结果;根据所述运算结果拉起对应的已挂起的请求上下文,从所述请求上下文中获取应用系统的连接信息,并根据所述连接信息向应用系统发送所述计算请求的运算结果。
上述实施例中,将密集计算任务从应用系统中抽离出来,交由专业的计算设备来进行运算。具体地,调度器根据计算请求创建一个请求上下文,在将计算请求发送至计算节点集群中的计算节点后,将计算请求的请求上下文挂起,并释放调度资源,调度器又可以继续去处理应用系统的其他计算请求,而接收到计算请求的计算节点根据计算请求进行运算,获取运算结果,并将运算结果反馈给调度器,调度器进而根据已挂起的请求上下文获取对应的应用系统的连接信息,进而根据连接信息将运算结果成功反馈给应用系统。本发明不同的密集计算任务交由不同计算节点处理,业务处理速度快,不同计算节点可同时执行计算任务,大大缩短了总处理时长;各个计算节点的运算量小,降低了对硬件设备的运行需求;且计算资源统一规划、部署和管理,避免了资源浪费。
可选地,作为本发明另一个实施例,调度器具体用于:通过类型匹配和负载算法从所述计算节点集群中选择一个计算节点,将所述计算请求发送至计算节点集群中的所述计算节点
可选地,作为本发明另一个实施例,调度器具体用于:根据所述计算请求包括的目标地址判断目标节点类型,从计算节点集群中属于目标节点类型的计算节点中通过负载均衡方式选择一个计算节点,将所述计算请求发送至选择的所述计算节点
可选地,所述调度器与应用系统建立Http连接,所述调度器与计算节点建立Http连接。
可选地,应用系统与调度器之间的调用机制为同步机制,所述调度器与计算节点之间的调用机制为异步机制。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种并行计算方法,其特征在于,包括如下步骤:
调度器集群接收应用系统发送的计算请求,为所述计算请求分配一个空闲的调度器,所述调度器根据所述计算请求创建一个请求上下文,将所述计算请求发送至计算节点集群中的计算节点,挂起所述请求上下文,并释放调度资源;其中,所述计算请求为应用系统需要进行密集计算时生成的;
所述调度器接收所述计算节点根据所述计算请求进行运算处理获得运算结果;根据所述运算结果拉起对应的已挂起的请求上下文,从所述请求上下文中获取应用系统的连接信息,并根据所述连接信息向应用系统发送所述计算请求的运算结果。
2.根据权利要求1所述的方法,其特征在于,所述将所述计算请求发送至计算节点集群中的计算节点包括:通过类型匹配和负载算法从所述计算节点集群中选择一个计算节点,将所述计算请求发送至计算节点集群中的所述计算节点。
3.根据权利要求2所述的方法,其特征在于,所述通过类型匹配和负载算法从所述计算节点集群中选择一个计算节点,将所述计算请求发送至计算节点集群中的所述计算节点包括:
根据所述计算请求包括的目标地址判断目标节点类型,从计算节点集群中属于目标节点类型的计算节点中通过负载均衡方式选择一个计算节点,将所述计算请求发送至选择的所述计算节点。
4.根据权利要求1至3任一项所述的方法,所述调度器与应用系统建立Http连接,所述调度器与计算节点建立Http连接。
5.根据权利要求1至3任一项所述的方法,所述应用系统与调度器之间的调用机制为同步机制,所述调度器与计算节点之间的调用机制为异步机制。
6.一种并行计算系统,其特征在于,包括应用系统、调度器集群和计算节点集群;
所述应用系统用于需要进行密集计算时生成计算请求,并发送至所述调度器集群;
所述调度器集群用于接收应用系统发送的计算请求,为所述计算请求分配一个空闲的调度器,所述调度器根据所述计算请求创建一个请求上下文,将所述计算请求发送至计算节点集群中的计算节点,挂起所述请求上下文,并释放调度资源;
所述计算节点集群中的计算节点用于根据所述计算请求进行运算处理获得运算结果;
所述调度器接收所述计算节点根据所述计算请求进行运算处理获得运算结果;根据所述运算结果拉起对应的已挂起的请求上下文,从所述请求上下文中获取应用系统的连接信息,并根据所述连接信息向应用系统发送所述计算请求的运算结果。
7.根据权利要求6所述的系统,其特征在于,所述调度器具体用于:通过类型匹配和负载算法从所述计算节点集群中选择一个计算节点,将所述计算请求发送至计算节点集群中的所述计算节点。
8.根据权利要求7所述的系统,其特征在于,所述调度器具体用于:
根据所述计算请求包括的目标地址判断目标节点类型,从计算节点集群中属于目标节点类型的计算节点中通过负载均衡方式选择一个计算节点,将所述计算请求发送至选择的所述计算节点。
9.根据权利要求6至8任一项所述的系统,所述调度器与应用系统建立Http连接,所述调度器与计算节点建立Http连接。
10.根据权利要求6至8任一项所述的系统,所述应用系统与调度器之间的调用机制为同步机制,所述调度器与计算节点之间的调用机制为异步机制。
CN201810210540.0A 2018-03-14 2018-03-14 一种并行计算方法及系统 Pending CN108469990A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810210540.0A CN108469990A (zh) 2018-03-14 2018-03-14 一种并行计算方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810210540.0A CN108469990A (zh) 2018-03-14 2018-03-14 一种并行计算方法及系统

Publications (1)

Publication Number Publication Date
CN108469990A true CN108469990A (zh) 2018-08-31

Family

ID=63264412

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810210540.0A Pending CN108469990A (zh) 2018-03-14 2018-03-14 一种并行计算方法及系统

Country Status (1)

Country Link
CN (1) CN108469990A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110262901A (zh) * 2019-06-27 2019-09-20 深圳前海微众银行股份有限公司 一种数据处理方法及数据处理系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649103A (en) * 1995-07-13 1997-07-15 Cabletron Systems, Inc. Method and apparatus for managing multiple server requests and collating reponses
EP1329809A1 (en) * 2002-01-18 2003-07-23 Hewlett-Packard Company, A Delaware Corporation Distributed computing system and method
CN1811704A (zh) * 2005-01-26 2006-08-02 微软公司 用于知晓上下文的平台的系统和方法
US20120317165A1 (en) * 2007-02-14 2012-12-13 The Mathworks, Inc. Using parallel processing constructs and dynamically allocating program portions
CN103324539A (zh) * 2013-06-24 2013-09-25 浪潮电子信息产业股份有限公司 一种作业调度管理系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649103A (en) * 1995-07-13 1997-07-15 Cabletron Systems, Inc. Method and apparatus for managing multiple server requests and collating reponses
EP1329809A1 (en) * 2002-01-18 2003-07-23 Hewlett-Packard Company, A Delaware Corporation Distributed computing system and method
CN1811704A (zh) * 2005-01-26 2006-08-02 微软公司 用于知晓上下文的平台的系统和方法
US20120317165A1 (en) * 2007-02-14 2012-12-13 The Mathworks, Inc. Using parallel processing constructs and dynamically allocating program portions
CN103324539A (zh) * 2013-06-24 2013-09-25 浪潮电子信息产业股份有限公司 一种作业调度管理系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BORZOO BONAKDARPOUR 等: "Model-based implementation of distributed systems with priorities", 《DESIGN AUTOMATION FOR EMBEDDED SYSTEMS》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110262901A (zh) * 2019-06-27 2019-09-20 深圳前海微众银行股份有限公司 一种数据处理方法及数据处理系统

Similar Documents

Publication Publication Date Title
Meng et al. Dedas: Online task dispatching and scheduling with bandwidth constraint in edge computing
CN106776005B (zh) 一种面向容器化应用的资源管理系统及方法
CN107087019B (zh) 一种基于端云协同计算架构的任务调度方法及装置
CN105391797B (zh) 基于sdn的云服务器负载均衡方法及装置
Krishnamurthy et al. Pratyaastha: an efficient elastic distributed sdn control plane
WO2019001092A1 (zh) 负载均衡引擎,客户端,分布式计算系统以及负载均衡方法
US20150032806A1 (en) Load distribution in client server system
CN106919445A (zh) 一种在集群中并行调度容器的方法和装置
US9104488B2 (en) Support server for redirecting task results to a wake-up server
CN106293933A (zh) 一种支持多大数据计算框架的集群资源配置与调度方法
CN112087332B (zh) 一种云边协同下的虚拟网络性能优化系统
CN106528288A (zh) 一种资源管理方法、装置和系统
CN110162397A (zh) 资源分配方法、装置及系统
CN115134371A (zh) 包含边缘网络算力资源的调度方法、系统、设备及介质
Bukhsh et al. A decentralized edge computing latency-aware task management method with high availability for IoT applications
Tseng et al. An mec-based vnf placement and scheduling scheme for ar application topology
CN111352726B (zh) 一种基于容器化微服务的流数据处理方法及装置
CN116048825A (zh) 容器集群构建方法及系统
CN108469990A (zh) 一种并行计算方法及系统
CN105550025A (zh) 分布式基础设施即服务(IaaS)调度方法及系统
CN114237902A (zh) 一种服务部署方法、装置、电子设备及计算机可读介质
Mo et al. Heet: Accelerating Elastic Training in Heterogeneous Deep Learning Clusters
CN103562852B (zh) 一种保障云应用程序服务质量的方法和装置
Skulysh et al. Management of multiple stage queuing systems
Paul et al. A hybrid adaptive strategy for task allocation and scheduling for multi-applications on NoC-based multicore systems with resource sharing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180831

RJ01 Rejection of invention patent application after publication