CN111176818A - 分布式预测的方法、装置、系统、电子设备及存储介质 - Google Patents

分布式预测的方法、装置、系统、电子设备及存储介质 Download PDF

Info

Publication number
CN111176818A
CN111176818A CN201911407915.3A CN201911407915A CN111176818A CN 111176818 A CN111176818 A CN 111176818A CN 201911407915 A CN201911407915 A CN 201911407915A CN 111176818 A CN111176818 A CN 111176818A
Authority
CN
China
Prior art keywords
node
data
subtasks
prediction
distributed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911407915.3A
Other languages
English (en)
Other versions
CN111176818B (zh
Inventor
陈杰
倪煜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kingsoft Cloud Network Technology Co Ltd
Original Assignee
Beijing Kingsoft Cloud Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kingsoft Cloud Network Technology Co Ltd filed Critical Beijing Kingsoft Cloud Network Technology Co Ltd
Priority to CN201911407915.3A priority Critical patent/CN111176818B/zh
Publication of CN111176818A publication Critical patent/CN111176818A/zh
Application granted granted Critical
Publication of CN111176818B publication Critical patent/CN111176818B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2471Distributed queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开实施例涉及一种分布式预测的方法、装置、系统、电子设备及存储介质。其中,分布式预测的方法应用于第一节点,具体包括:获取预测任务对应的输入数据;分片输入数据,得到多个分片数据;基于多个分片数据,将预测任务拆分为多个子任务;分配子任务给至少一个计算节点;其中,第一节点和计算节点均部署有Dask框架;计算节点创建有容器,容器中设置有预先训练的模型,且模型基于Dask框架执行分配的子任务,基于分片数据进行预测得到预测结果。本公开实施例基于Dask框架构建Dask+容器的分布式预测方案,通过对数据进行分片,将数据处理过程分为多个子任务,进而将不同子任务分配到不同计算节点进行分布式计算,实现易用且更轻量级的大数据处理。

Description

分布式预测的方法、装置、系统、电子设备及存储介质
技术领域
本公开实施例涉及大数据技术领域,具体涉及一种分布式预测的方法、装置、系统、电子设备及非暂态计算机可读存储介质。
背景技术
大数据是一种超出了传统数据库软件工具能力范围的数据集合,具有四个特征:海量的数据规模、快速的数据流转、多样的数据类型和价值密度低。通常来讲,大数据无法用单台的计算机进行处理,须采用分布式计算架构。目前,大数据处理框架多采用Spark(一种用于大规模数据处理的计算引擎)、Hadoop(一种分布式处理基础框架)。
在传统的大数据场景下,通常基于Spark+Hadoop构建分布式计算存储集群。但是搭建Spark+Hadoop集群是一个较大工程,复杂度较高,对于一些公司、实验室或个人,期望基于简易的分布式环境来测试机器学习或深度学习模型,也有部分公司、实验室或个人基于自身业务构建分布式调度方案,但通常需要从底层进行编写,导致易用性及普适性相对较弱。为此,亟需设计更轻量级的、且接近于Spark+Hadoop集群处理的分布式方案。
上述对问题的发现过程的描述,仅用于辅助理解本公开的技术方案,并不代表承认上述内容是现有技术。
发明内容
为了解决现有技术存在的至少一个问题,本公开的至少一个实施例提供了一种分布式预测的方法、装置、系统、电子设备及非暂态计算机可读存储介质。
第一方面,本公开实施例提供一种分布式预测的方法,应用于第一节点,所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架执行所述方法,所述方法包括:
获取预测任务对应的输入数据;
分片所述输入数据,得到多个分片数据;
基于所述多个分片数据,将所述预测任务拆分为多个子任务,其中,每个分片数据对应一个子任务;
分配所述分片数据对应的子任务给至少一个计算节点;
其中,所述计算节点中部署有所述Dask框架且创建有容器;所述容器中设置有预先训练的模型,且所述模型基于所述Dask框架执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
在一些实施例中,在所述分配所述分片数据对应的子任务给至少一个计算节点后,所述方法还包括:
获取并存储合并结果;其中,所述合并结果为不同计算节点的子任务预测结果的合并结果。
在一些实施例中,所述基于所述多个分片数据,将所述预测任务拆分为多个子任务包括:
基于所述预先训练的模型,构建每个分片数据对应的子任务;
基于每个分片数据对应的子任务,构建任务图;其中,所述任务图中设置有每个分片数据对应的子任务的处理方式;
所述分配所述分片数据对应的子任务给至少一个计算节点包括:
基于所述任务图,分配所述分片数据对应的子任务给至少一个计算节点,且分配的子任务中携带有所述子任务的处理方式。
在一些实施例中,所述任务图中还包括:每个分片数据对应的子任务之间的依赖关系。
在一些实施例中,所述任务图中还包括:用于合并每个分片数据对应的子任务预测结果的子任务以及用于存储合并结果的子任务。
在一些实施例中,所述分配所述分片数据对应的子任务给至少一个计算节点后,所述方法还包括:
若任一计算节点的子任务处理失败,则记录失败的子任务,并将失败的子任务重新分配至可运行的计算节点。
在一些实施例中,所述分配所述分片数据对应的子任务给至少一个计算节点后,所述方法还包括:
记录已完成的子任务,基于记录的已完成的子任务,确定待完成的子任务,并将所述待完成的子任务分配给至少一个计算节点。
在一些实施例中,所述存储合并结果包括:将所述合并结果保存至对象存储系统。
在一些实施例中,所述方法还包括:
将所述第一节点的运行中间状态记录在Redis数据库中。
在一些实施例中,所述第一节点和所述计算节点为POD节点;
在所述获取预测任务对应的输入数据前,所述方法还包括:
获取所述第一节点对应的Dask镜像文件;
基于所述Dask镜像文件,在所述第一节点中,部署所述Dask框架。
第二方面,本公开实施例还提供一种分布式预测的方法,应用于计算节点,所述计算节点中部署有Dask框架且创建有容器,所述容器中设置有预先训练的模型,所述计算节点基于所述Dask框架执行所述方法,所述方法包括:
接收第一节点分配的分片数据对应的子任务;其中,所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架,获取预测任务对应的输入数据,并分片所述输入数据得到多个分片数据,基于所述多个分片数据将所述预测任务拆分为多个子任务,并分配所述分片数据对应的子任务给至少一个计算节点;
基于所述Dask框架通过所述模型执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
在一些实施例中,所述分配的分片数据对应的子任务中携带有所述子任务的处理方式;
所述通过所述模型执行分配的分片数据对应的子任务包括:
基于所述子任务的处理方式,通过所述模型执行分配的分片数据对应的子任务。
在一些实施例中,所述子任务的处理方式包括:所述分片数据的数据地址和所述子任务的预测结果的存储地址;
所述基于所述子任务的处理方式,通过所述模型执行分配的分片数据对应的子任务包括:
基于所述分片数据的数据地址,读取所述分片数据;
加载所述模型,通过所述模型基于所述分片数据进行预测;
基于所述预测结果的存储地址,存储所述模型的预测结果。
在一些实施例中,所述预测结果存储在对象存储系统。
在一些实施例中,所述方法还包括:
将所述计算节点的运行中间状态记录在Redis数据库中。
在一些实施例中,所述方法还包括:
当所述子任务执行完成,向所述第一节点反馈所述子任务执行完成。
第三方面,本公开实施例还提供一种分布式预测的装置,应用于第一节点,所述第一节点中部署有Dask框架,所述装置包括:
获取单元,用于获取预测任务对应的输入数据;
分片单元,用于分片所述输入数据,得到多个分片数据;
拆分单元,用于基于所述多个分片数据,将所述预测任务拆分为多个子任务,其中,每个分片数据对应一个子任务;
分配单元,用于分配所述分片数据对应的子任务给至少一个计算节点;
其中,所述计算节点中部署有所述Dask框架且创建有容器;所述容器中设置有预先训练的模型,且所述模型基于所述Dask框架执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
第四方面,本公开实施例还提供一种分布式预测的装置,应用于计算节点,所述计算节点中部署有Dask框架且创建有容器,所述容器中设置有预先训练的模型,所述装置包括:
接收单元,用于接收第一节点分配的分片数据对应的子任务;其中,所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架,获取预测任务对应的输入数据,并分片所述输入数据得到多个分片数据,基于所述多个分片数据将所述预测任务拆分为多个子任务,并分配所述分片数据对应的子任务给至少一个计算节点;
预测单元,用于基于所述Dask框架通过所述模型执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
第五方面,本公开实施例还提供一种分布式预测的系统,所述系统包括第一节点和多个计算节点;
所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架执行如第一方面任一实施例的方法步骤;
所述计算节点中部署有Dask框架且创建有容器,所述容器中设置有预先训练的模型,所述计算节点基于所述Dask框架执行如第二方面任一实施例的方法步骤。
第六方面,本公开实施例还提供一种电子设备,包括:处理器和存储器;所述处理器通过调用所述存储器存储的程序或指令,用于执行如第一方面任一实施例或第二方面任一实施例的方法步骤。
第七方面,本公开实施例还提供一种非暂态计算机可读存储介质,用于存储程序或指令,所述程序或指令使计算机执行如第一方面任一实施例或第二方面任一实施例的方法步骤。
可见,本公开实施例的至少一个实施例中,基于Dask框架构建Dask+容器的分布式预测方案,通过对数据进行分片,将数据处理过程分为多个子任务,进而将不同子任务分配到不同计算节点进行分布式计算,实现易用且更轻量级的大数据处理。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本公开实施例提供的一种分布式预测的系统的整体架构图;
图2是本公开实施例提供的一种中心节点的框图;
图3是本公开实施例提供的一种任务图的示意图;
图4是本公开实施例提供的一种电子设备的框图;
图5是本公开实施例提供的一种分布式预测的方法流程图;
图6为本公开实施例提供的另一种分布式预测的方法流程图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。此处所描述的具体实施例仅仅用于解释本公开,而非对本公开的限定。基于所描述的本公开的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
图1为本公开实施例提供的一种分布式预测的系统的整体架构图。图1中包括:分布式大数据服务器集群11、分布式第一存储设备12、分布式第二存储设备13以及其他用于分布式预测的设备,例如包括但不限于镜像库14和Web服务器15。
其中,分布式大数据服务器集群11包括但不限于:多个计算节点111以及中心节点112(第一节点)。计算节点111用于执行大数据计算、分析等功能。中心节点112用于给多个计算节点111分配计算任务。
在一些实施例中,分布式第一存储设备12可以是一个或者多个,分布式第二存储设备13可以是一个或者多个。在一些实施例中,分布式第一存储设备12可以为对象存储设备,分布式第二存储设备13可以为Redis设备。
本发明实施例中,分布式大数据服务器集群11为基于Dask的k8s服务器集群。计算节点111为k8s服务器集群的Dask计算节点。中心节点112为k8s服务器集群的Dask中心节点。
其中,k8s为kubernetes的简称,是一个开源的容器服务编排程序,用于管理云平台中多个主机上的容器化的应用,Kubernetes的目标是让部署容器化的应用简单并且高效(powerful)。k8s在Docker(容器引擎)技术的基础上,为容器化的应用提供部署运行、资源调度、服务发现和动态伸缩等一系列完整功能,提高了大规模容器集群管理的便捷性。
传统的应用部署方式是通过插件或脚本来安装应用。缺点是应用的运行、配置、管理、所有生存周期将与当前操作系统绑定,不利于应用的升级、更新及回滚等操作。相比传统的应用部署方式,通过部署容器方式实现应用部署,每个容器之间互相隔离,每个容器有自己的文件系统,容器之间进程不会相互影响,能区分计算资源。由于容器与底层设施、机器文件系统解耦的,因此能在不同云、不同版本操作系统间进行迁移。
k8s中运行部署应用或服务的最小单元是Pod,Pod是一个或多个容器的组合,Pod支持多个容器在一个Pod中共享网络地址和文件系统,可以通过进程间通信和文件共享的方式组合完成服务。
Dask是一个灵活的具有任务调度的Python并行计算库。Dask比Spark更小,重量更轻,具有更少的功能,与其他库结合使用,尤其是数字Python生态系统中的库。
可见,基于Dask的k8s服务器集群相比现有的Spark+Hadoop集群,更轻量级。
在一些实施例中,Dask中心节点为通过加载预先部署的k8s中心节点文件而生成的。在一些实施例中,k8s中心节点文件为基于Dask分布式环境编写得到。在一些实施例中,k8s中心节点文件为k8s scheduler yaml文件。k8s scheduler yaml文件预先部署在Web服务器15上或者其他预设服务器上。
在一些实施例中,k8s中心节点文件包括:Dask镜像文件的地址及Dask中心节点的配置信息。在一些实施例中,Dask镜像文件以及机器学习相关库可预先存储到特定的镜像库14中。Dask镜像文件的地址即为镜像库14中Dask镜像文件的位置信息。在一些实施例中,Dask中心节点的配置信息可以理解为创建容器之后需要执行的命令。
在一些实施例中,加载预先部署的k8s中心节点文件包括(1)至(3):
(1)基于Dask镜像文件的地址,获取Dask镜像文件。在一些实施例中,基于Dask镜像文件的地址,从镜像库14中下载Dask镜像文件。
(2)基于Dask镜像文件和k8s中心节点文件,构建容器组。在一些实施例中,容器组即为Pod。
(3)基于Dask中心节点的配置信息,将容器组配置为Dask中心节点。在一些实施例中,Dask中心节点为Dask scheduler Pod。
在一些实施例中,Dask中心节点的配置信息为Dask中心节点的服务启动文件的地址。在一些实施例中,Dask中心节点的服务启动文件可以为预先编写的Dask中心节点的启动脚本。服务启动文件的地址也即启动脚本的存放位置。
在一些实施例中,基于Dask中心节点的配置信息,将容器组配置为Dask中心节点,包括(1)和(2):
(1)基于Dask中心节点的配置信息,获取Dask中心节点的服务启动文件。在一些实施例中,基于Dask中心节点的启动脚本的地址,下载Dask中心节点的启动脚本。
(2)基于Dask中心节点的服务启动文件,将容器组配置为Dask中心节点。在一些实施例中,下载Dask中心节点的启动脚本后,在创建的容器组中执行启动脚本,实现Dask中心节点的功能。
在一些实施例中,Dask计算节点为通过加载预先部署的k8s计算节点文件而生成的。在一些实施例中,k8s计算节点文件为基于Dask分布式环境编写得到。在一些实施例中,k8s计算节点文件为k8s worker yaml文件。k8s worker yaml文件预先部署在Web服务器15上或者其他预设服务器上。
在一些实施例中,k8s计算节点文件包括:Dask镜像文件的地址及Dask计算节点的配置信息。在一些实施例中,Dask镜像文件以及机器学习相关库可预先存储到特定的镜像库14中。Dask镜像文件的地址即为镜像库14中Dask镜像文件的位置信息。在一些实施例中,Dask计算节点的配置信息可以理解为创建容器之后需要执行的命令。
在一些实施例中,加载预先部署的k8s计算节点文件包括(1)至(3):
(1)基于Dask镜像文件的地址,获取Dask镜像文件。在一些实施例中,基于Dask镜像文件的地址,从镜像库14中下载Dask镜像文件。
(2)基于Dask镜像文件和k8s计算节点文件,构建容器组。在一些实施例中,容器组即为Pod。
(3)基于Dask计算节点的配置信息,将容器组配置为Dask计算节点。在一些实施例中,Dask计算节点为Dask worker Pod。
在一些实施例中,Dask计算节点的配置信息为Dask计算节点的服务启动文件的地址。在一些实施例中,Dask计算节点的服务启动文件可以为预先编写的Dask计算节点的启动脚本。服务启动文件的地址也即启动脚本的存放位置。
在一些实施例中,基于Dask计算节点的配置信息,将容器组配置为Dask计算节点,包括(1)和(2):
(1)基于Dask计算节点的配置信息,获取Dask计算节点的服务启动文件。在一些实施例中,基于Dask计算节点的启动脚本的地址,下载Dask计算节点的启动脚本。
(2)基于Dask计算节点的服务启动文件,将容器组配置为Dask计算节点。在一些实施例中,下载Dask计算节点的启动脚本后,在创建的容器组中执行启动脚本,实现Dask计算节点的功能。
在一些实施例中,中心节点112用于获取输入数据。在一些实施例中,输入数据为分布式第一存储设备12的输入数据。在一些实施例中,输入数据可以为文件字节流。在一些实施例中,中心节点112基于输入数据,构建任务图,构建的任务图包括多个子任务。进一步地,中心节点112分配多个子任务至不同计算节点111。在一些实施例中,中心节点112存储合并结果;其中,合并结果为不同计算节点的子任务计算结果的合并结果。
中心节点112通过对数据进行任务图构建,将数据处理过程分为多个子任务,进而将不同子任务分配到不同计算节点进行分布式计算,并将分布式计算结果进行合并后存储,实现易用且更轻量级的大数据处理。
图2为本公开实施例提供的一种中心节点20的框图。在一些实施例中,中心节点20可以实现为图1中的中心节点112或者中心节点112的一部分。如图2所示,中心节点20可划分为多个单元,例如可包括但不限于:获取单元201、构建单元202、分配单元203和存储单元204。
获取单元201,用于获取预测任务对应的输入数据。在一些实施例中,获取单元201获取分布式第一存储设备12的输入数据。分布式第一存储设备12可以为对象存储设备。输入数据可以为对象存储设备中的文件字节流。
构建单元202,用于基于输入数据,构建任务图;任务图包括多个子任务。在一些实施例中,构建单元202可以分片输入数据,得到多个分片数据。在一些实施例中,构建单元202可基于多个分片数据,将预测任务拆分为多个子任务,其中,每个分片数据对应一个子任务。在一些实施例中,构建单元202可基于预先训练的模型,构建每个分片数据对应的子任务。在一些实施例中,构建单元202可基于每个分片数据对应的子任务,构建任务图。
在一些实施例中,可以预先训练不同类型的模型,完成不同的大数据处理功能,例如,模型为预测模型,用于完成大数据预测功能,构建的任务图即为预测任务图。
在一些实施例中,每个分片数据对应的子任务可包括:读取分片数据、加载预测模型和得到预测结果。构建单元202基于每个分片数据对应的子任务构建的任务图例如图3所示。
在一些实施例中,构建单元202构建的任务图可包括每个分片数据对应的子任务之间的依赖关系。例如图3中,读取分片数据和加载预测模型之间存在依赖关系,只有读取分片数据后,才加载预测模型,进而通过加载预测模型对分片数据进行预测,得到预测结果,从而完成对分片数据的处理。
在一些实施例中,构建单元202构建的任务图可包括每个分片数据对应的子任务、每个分片数据对应的子任务之间的依赖关系、用于合并每个分片数据对应的子任务预测结果的子任务以及用于存储合并结果的子任务。
图3为一种任务图的示意图,图3中的箭头表示依赖关系。构建单元202分片输入数据,得到分片数据A、分片数据B和分片数据C。进而构建单元202可基于多个分片数据,将预测任务拆分为多个子任务,每个分片数据对应一个子任务。
对于分片数据A,对应的子任务为:读取分片数据A、加载预测模型和得到预测结果。
对于分片数据B,对应的子任务为:读取分片数据B、加载预测模型和得到预测结果。
对于分片数据C,对应的子任务为:读取分片数据C、加载预测模型和得到预测结果。
图3中,构建单元202还构建了:用于合并预测结果的子任务以及用于存储合并结果的子任务。
在一些实施例中,构建单元202构建任务图可基于Dask Delayed对象进行构建,构建的任务图可称为延迟计算任务图。
分配单元203,用于分配分片数据对应的子任务给至少一个计算节点111。在一些实施例中,分配单元203在分配子任务至计算节点111时,同时将与子任务对应的依赖关系指示给计算节点111。在一些实施例中,分配单元203基于任务图,分配分片数据对应的子任务给至少一个计算节点,且分配的子任务中携带有子任务的处理方式。其中,子任务的处理方式可包括但不限于:分片数据的数据地址和子任务的预测结果的存储地址。
在一些实施例中,中心节点20还可包括合并单元,用于合并不同计算节点的子任务预测结果,得到合并结果。在一些实施例中,用于存储合并结果的子任务可由中心节点20执行。
在一些实施例中,中心节点20还可包括记录单元,用于记录失败的子任务。在一些实施例中,分配单元203分配多个子任务至不同计算节点111后,若任一计算节点的子任务处理失败,则记录单元记录失败的子任务。
在一些实施例中,记录单元还用于记录已完成的子任务,并保存已完成的子任务的预测结果。在一些实施例中,记录单元将已完成的子任务的预测结果进行临时存储并发送给分布式第一存储设备12,由分布式第一存储设备12进行存储。第一存储设备12例如为对象存储设备。
在一些实施例中,分配单元203确定记录单元记录失败的子任务后,将失败的子任务重新分配至可运行的计算节点。在一些实施例中,可运行的计算节点包括空闲的计算节点和正在处理其他任务的计算节点。
在一些实施例中,若中心节点20计算失败,则记录单元删除已完成的子任务的计算结果,并且构建单元202基于未完成的子任务,重新构建任务图,分配单元203基于重新构建的任务图分配不同计算节点。在一些实施例中,若中心节点20计算失败,则记录单元仅删除临时存储的已完成的子任务的计算结果,不删除对象存储设备存储的已完成的子任务的计算结果。
在一些实施例中,中心节点20还可包括运行中间状态记录单元,用于记录中心节点20和每个计算节点的运行中间状态。在一些实施例中,运行中间状态为节点运行过程中的状态,例如包括但不限于:Starting(启动中)、Waiting(等待)、Running(处理)、Fail(失败)、Success(成功)。
在一些实施例中,运行中间状态记录单元将中心节点20和每个计算节点的运行中间状态发送给分布式第二存储设备13,由分布式第二存储设备13进行存储。在一些实施例中,分布式第二存储设备13为Redis设备。
在一些实施例中,运行中间状态记录单元将中心节点20的运行中间状态记录在中心节点日志,且将每个计算节点的运行中间状态记录在计算节点日志。
在一些实施例中,运行中间状态记录单元可进一步划分为中心节点运行中间状态记录子单元和计算节点运行中间状态记录子单元。其中,中心节点运行中间状态记录子单元属于中心节点20,计算节点运行中间状态记录子单元属于计算节点。
在一些实施例中,中心节点运行中间状态记录子单元将中心节点20的运行中间状态发送给Redis设备进行存储。在一些实施例中,中心节点运行中间状态记录子单元将中心节点20的运行中间状态记录在中心节点日志。
在一些实施例中,计算节点运行中间状态记录子单元将计算节点的运行中间状态发送给Redis设备进行存储。在一些实施例中,计算节点运行中间状态记录子单元将计算节点的运行中间状态记录在计算节点日志。
在一些实施例中,中心节点日志还记录有:每个计算节点的监听状态。在一些实施例中,计算节点日志还记录有:每个计算节点的资源使用状态以及子任务数量。
通过中心节点日志和计算节点日志,便于中心节点及时了解Dask服务器集群的工作情况。
存储单元204,用于存储合并结果;其中,合并结果为不同计算节点的子任务预测结果的合并结果。
在一些实施例中,存储单元204将合并结果发送给分布式第一存储设备12,由分布式第一存储设备12进行存储。在一些实施例中,分布式第一存储设备12为对象存储设备。
在一些实施例中,中心节点20中各单元的划分仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如获取单元201、构建单元202、分配单元203和存储单元204可以实现为一个单元;获取单元201、构建单元202、分配单元203或存储单元204也可以划分为多个子单元。可以理解的是,各个单元或子单元能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能。
图4是本公开实施例提供的一种电子设备的结构示意图。如图6所示,电子设备包括:至少一个处理器401、至少一个存储器402和至少一个通信接口403。电子设备中的各个组件通过总线系统404耦合在一起。通信接口403,用于与外部设备之间的信息传输。可理解,总线系统404用于实现这些组件之间的连接通信。总线系统404除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但为了清楚说明起见,在图4中将各种总线都标为总线系统404。
可以理解,本实施例中的存储器402可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。
在一些实施方式中,存储器402存储了如下的元素,可执行单元或者数据结构,或者他们的子集,或者他们的扩展集:操作系统和应用程序。
其中,操作系统,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序,包含各种应用程序,例如媒体播放器(Media Player)、浏览器(Browser)等,用于实现各种应用业务。实现本公开实施例提供的分布式预测的方法的程序可以包含在应用程序中。
在本公开实施例中,处理器401通过调用存储器402存储的程序或指令,具体的,可以是应用程序中存储的程序或指令,处理器401用于执行本公开实施例提供的分布式预测的方法各实施例的步骤。
本公开实施例提供的分布式预测的方法可以应用于处理器401中,或者由处理器401实现。处理器401可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器401中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器401可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本公开实施例提供的分布式预测的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件单元组合执行完成。软件单元可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器402,处理器401读取存储器402中的信息,结合其硬件完成方法的步骤。
图5为本公开实施例提供的分布式预测的方法流程图。该方法应用于第一节点,所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架执行所述方法。在一些实施例中,第一节点可以为图1所示的中心节点112。如图5所示,分布式预测的方法包括步骤501至504。
在一些实施例中,所述方法首先执行准备步骤:获取第一节点对应的Dask镜像文件;基于所述Dask镜像文件,在所述第一节点中,部署所述Dask框架。在执行准备步骤后,执行如下步骤501至504。
501、获取预测任务对应的输入数据。在一些实施例中,获取分布式第一存储设备的输入数据。分布式第一存储设备可以为对象存储设备。输入数据可以为对象存储设备中的文件字节流。
502、分片所述输入数据,得到多个分片数据。
503、基于所述多个分片数据,将所述预测任务拆分为多个子任务,其中,每个分片数据对应一个子任务。
在一些实施例中,基于预先训练的模型,构建每个分片数据对应的子任务;进而基于每个分片数据对应的子任务,构建任务图;其中,所述任务图中设置有每个分片数据对应的子任务的处理方式。子任务的处理方式可包括但不限于:分片数据的数据地址和子任务的预测结果的存储地址。
在一些实施例中,所述任务图中还可包括:每个分片数据对应的子任务之间的依赖关系。在一些实施例中,所述任务图中还可包括:用于合并每个分片数据对应的子任务预测结果的子任务以及用于存储合并结果的子任务。
504、分配所述分片数据对应的子任务给至少一个计算节点。在一些实施例中,基于构建的任务图,分配所述分片数据对应的子任务给至少一个计算节点,且分配的子任务中携带有所述子任务的处理方式。
其中,所述计算节点中部署有所述Dask框架且创建有容器;所述容器中设置有预先训练的模型,且所述模型基于所述Dask框架执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。在一些实施例中,第一节点和计算节点均为Pod节点。
在一些实施例中,在步骤504所述分配所述分片数据对应的子任务给至少一个计算节点后,所述方法还包括:获取并存储合并结果;其中,所述合并结果为不同计算节点的子任务预测结果的合并结果。在一些实施例中,将所述合并结果保存至对象存储系统。
在一些实施例中,在步骤504所述分配所述分片数据对应的子任务给至少一个计算节点后,所述方法还包括:
若任一计算节点的子任务处理失败,则记录失败的子任务,并将失败的子任务重新分配至可运行的计算节点。
在一些实施例中,在步骤504所述分配所述分片数据对应的子任务给至少一个计算节点后,所述方法还包括:
记录已完成的子任务,基于记录的已完成的子任务,确定待完成的子任务,并将所述待完成的子任务分配给至少一个计算节点。
在一些实施例中,所述方法还包括:将所述第一节点的运行中间状态记录在Redis数据库中。
图6为本公开实施例提供的分布式预测的方法流程图。该方法应用于计算节点,所述计算节点中部署有Dask框架且创建有容器,所述容器中设置有预先训练的模型,所述计算节点基于所述Dask框架执行所述方法,所述方法包括步骤601和602:
601、接收第一节点分配的分片数据对应的子任务;其中,所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架,获取预测任务对应的输入数据,并分片所述输入数据得到多个分片数据,基于所述多个分片数据将所述预测任务拆分为多个子任务,并分配所述分片数据对应的子任务给至少一个计算节点。
在一些实施例中,分配的分片数据对应的子任务中携带有所述子任务的处理方式。所述子任务的处理方式可包括但不限于:所述分片数据的数据地址和所述子任务的预测结果的存储地址。
602、基于所述Dask框架通过所述模型执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。在一些实施例中,所述预测结果存储在对象存储系统。
在一些实施例中,通过所述模型执行分配的分片数据对应的子任务包括:基于所述子任务的处理方式,通过所述模型执行分配的分片数据对应的子任务。
在一些实施例中,通过所述模型执行分配的分片数据对应的子任务包括:基于所述分片数据的数据地址,读取所述分片数据;加载所述模型,通过所述模型基于所述分片数据进行预测;基于所述预测结果的存储地址,存储所述模型的预测结果。
在一些实施例中,所述方法还可包括:将所述计算节点的运行中间状态记录在Redis数据库中。在一些实施例中,所述方法还包括:当所述子任务执行完成,向所述第一节点反馈所述子任务执行完成。
本公开实施例还提供一种分布式预测的装置,应用于第一节点,所述第一节点中部署有Dask框架,所述装置包括:
获取单元,用于获取预测任务对应的输入数据;
分片单元,用于分片所述输入数据,得到多个分片数据;
拆分单元,用于基于所述多个分片数据,将所述预测任务拆分为多个子任务,其中,每个分片数据对应一个子任务;
分配单元,用于分配所述分片数据对应的子任务给至少一个计算节点;
其中,所述计算节点中部署有所述Dask框架且创建有容器;所述容器中设置有预先训练的模型,且所述模型基于所述Dask框架执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
本实施例公开的分布式预测的装置中各单元的具体描述与应用于第一节点的分布式预测方法实施例相似,不再赘述。
本公开实施例还提供一种分布式预测的装置,应用于计算节点,所述计算节点中部署有Dask框架且创建有容器,所述容器中设置有预先训练的模型,所述装置包括:
接收单元,用于接收第一节点分配的分片数据对应的子任务;其中,所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架,获取预测任务对应的输入数据,并分片所述输入数据得到多个分片数据,基于所述多个分片数据将所述预测任务拆分为多个子任务,并分配所述分片数据对应的子任务给至少一个计算节点;
预测单元,用于基于所述Dask框架通过所述模型执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
本实施例公开的分布式预测的装置中各单元的具体描述与应用于计算节点的分布式预测方法实施例相似,不再赘述。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员能够理解,本公开实施例并不受所描述的动作顺序的限制,因为依据本公开实施例,某些步骤可以采用其他顺序或者同时进行(例如在一些实施例中,“将中心节点和每个计算节点的运行状态发送给分布式第二存储设备”;“将中心节点的运行状态记录在中心节点日志,且将每个计算节点的运行状态记录在计算节点日志”,可同时进行)。另外,本领域技术人员能够理解,说明书中所描述的实施例均属于可选实施例。
本公开实施例还提出一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储程序或指令,所述程序或指令使计算机执行如分布式预测的方法各实施例的步骤,为避免重复描述,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本公开的范围之内并且形成不同的实施例。
本领域的技术人员能够理解,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
虽然结合附图描述了本公开的实施方式,但是本领域技术人员可以在不脱离本公开的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。

Claims (21)

1.一种分布式预测的方法,其特征在于,应用于第一节点,所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架执行所述方法,所述方法包括:
获取预测任务对应的输入数据;
分片所述输入数据,得到多个分片数据;
基于所述多个分片数据,将所述预测任务拆分为多个子任务,其中,每个分片数据对应一个子任务;
分配所述分片数据对应的子任务给至少一个计算节点;其中,所述计算节点中部署有所述Dask框架且创建有容器;所述容器中设置有预先训练的模型,且所述模型基于所述Dask框架执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
2.根据权利要求1所述的方法,其特征在于,在所述分配所述分片数据对应的子任务给至少一个计算节点后,所述方法还包括:
获取并存储合并结果;其中,所述合并结果为不同计算节点的子任务预测结果的合并结果。
3.根据权利要求1所述的方法,其特征在于,所述基于所述多个分片数据,将所述预测任务拆分为多个子任务包括:
基于所述预先训练的模型,构建每个分片数据对应的子任务;
基于每个分片数据对应的子任务,构建任务图;其中,所述任务图中设置有每个分片数据对应的子任务的处理方式;
所述分配所述分片数据对应的子任务给至少一个计算节点包括:
基于所述任务图,分配所述分片数据对应的子任务给至少一个计算节点,且分配的子任务中携带有所述子任务的处理方式。
4.根据权利要求3所述的方法,其特征在于,所述任务图中还包括:每个分片数据对应的子任务之间的依赖关系。
5.根据权利要求3所述的方法,其特征在于,所述任务图中还包括:用于合并每个分片数据对应的子任务预测结果的子任务以及用于存储合并结果的子任务。
6.根据权利要求1所述的方法,其特征在于,所述分配所述分片数据对应的子任务给至少一个计算节点后,所述方法还包括:
若任一计算节点的子任务处理失败,则记录失败的子任务,并将失败的子任务重新分配至可运行的计算节点。
7.根据权利要求1所述的方法,其特征在于,所述分配所述分片数据对应的子任务给至少一个计算节点后,所述方法还包括:
记录已完成的子任务,基于记录的已完成的子任务,确定待完成的子任务,并将所述待完成的子任务分配给至少一个计算节点。
8.根据权利要求2所述的方法,其特征在于,所述存储合并结果包括:将所述合并结果保存至对象存储系统。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述第一节点的运行中间状态记录在Redis数据库中。
10.根据权利要求1至9任一项所述的方法,其特征在于,所述第一节点和所述计算节点为Pod节点;
在所述获取预测任务对应的输入数据前,所述方法还包括:
获取所述第一节点对应的Dask镜像文件;
基于所述Dask镜像文件,在所述第一节点中,部署所述Dask框架。
11.一种分布式预测的方法,其特征在于,应用于计算节点,所述计算节点中部署有Dask框架且创建有容器,所述容器中设置有预先训练的模型,所述计算节点基于所述Dask框架执行所述方法,所述方法包括:
接收第一节点分配的分片数据对应的子任务;其中,所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架,获取预测任务对应的输入数据,并分片所述输入数据得到多个分片数据,基于所述多个分片数据将所述预测任务拆分为多个子任务,并分配所述分片数据对应的子任务给至少一个计算节点;
基于所述Dask框架通过所述模型执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
12.根据权利要求11所述的方法,其特征在于,所述分配的分片数据对应的子任务中携带有所述子任务的处理方式;
所述通过所述模型执行分配的分片数据对应的子任务包括:
基于所述子任务的处理方式,通过所述模型执行分配的分片数据对应的子任务。
13.根据权利要求12所述的方法,其特征在于,所述子任务的处理方式包括:所述分片数据的数据地址和所述子任务的预测结果的存储地址;
所述基于所述子任务的处理方式,通过所述模型执行分配的分片数据对应的子任务包括:
基于所述分片数据的数据地址,读取所述分片数据;
加载所述模型,通过所述模型基于所述分片数据进行预测;
基于所述预测结果的存储地址,存储所述模型的预测结果。
14.根据权利要求13所述的方法,其特征在于,所述预测结果存储在对象存储系统。
15.根据权利要求11所述的方法,其特征在于,所述方法还包括:
将所述计算节点的运行中间状态记录在Redis数据库中。
16.根据权利要求11所述的方法,其特征在于,所述方法还包括:
当所述子任务执行完成,向所述第一节点反馈所述子任务执行完成。
17.一种分布式预测的装置,其特征在于,应用于第一节点,所述第一节点中部署有Dask框架,所述装置包括:
获取单元,用于获取预测任务对应的输入数据;
分片单元,用于分片所述输入数据,得到多个分片数据;
拆分单元,用于基于所述多个分片数据,将所述预测任务拆分为多个子任务,其中,每个分片数据对应一个子任务;
分配单元,用于分配所述分片数据对应的子任务给至少一个计算节点;
其中,所述计算节点中部署有所述Dask框架且创建有容器;所述容器中设置有预先训练的模型,且所述模型基于所述Dask框架执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
18.一种分布式预测的装置,其特征在于,应用于计算节点,所述计算节点中部署有Dask框架且创建有容器,所述容器中设置有预先训练的模型,所述装置包括:
接收单元,用于接收第一节点分配的分片数据对应的子任务;其中,所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架,获取预测任务对应的输入数据,并分片所述输入数据得到多个分片数据,基于所述多个分片数据将所述预测任务拆分为多个子任务,并分配所述分片数据对应的子任务给至少一个计算节点;
预测单元,用于基于所述Dask框架通过所述模型执行分配的分片数据对应的子任务,基于所述分片数据进行预测得到预测结果。
19.一种分布式预测的系统,其特征在于,所述系统包括第一节点和多个计算节点;
所述第一节点中部署有Dask框架,所述第一节点基于所述Dask框架执行如权利要求1至10任一项所述方法;
所述计算节点中部署有Dask框架且创建有容器,所述容器中设置有预先训练的模型,所述计算节点基于所述Dask框架执行如权利要求11至16任一项所述方法。
20.一种电子设备,其特征在于,包括:处理器和存储器;
所述处理器通过调用所述存储器存储的程序或指令,用于执行如权利要求1至16任一项所述方法的步骤。
21.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储程序或指令,所述程序或指令使计算机执行如权利要求1至16任一项所述方法的步骤。
CN201911407915.3A 2019-12-31 2019-12-31 分布式预测的方法、装置、系统、电子设备及存储介质 Active CN111176818B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911407915.3A CN111176818B (zh) 2019-12-31 2019-12-31 分布式预测的方法、装置、系统、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911407915.3A CN111176818B (zh) 2019-12-31 2019-12-31 分布式预测的方法、装置、系统、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111176818A true CN111176818A (zh) 2020-05-19
CN111176818B CN111176818B (zh) 2023-08-25

Family

ID=70649113

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911407915.3A Active CN111176818B (zh) 2019-12-31 2019-12-31 分布式预测的方法、装置、系统、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111176818B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111694640A (zh) * 2020-06-10 2020-09-22 北京奇艺世纪科技有限公司 数据处理方法、装置、电子设备及存储介质
CN112597502A (zh) * 2020-12-17 2021-04-02 山东乾云启创信息科技股份有限公司 一种基于可信云的大规模计算服务配置方法及系统
CN112799680A (zh) * 2021-01-31 2021-05-14 云知声智能科技股份有限公司 一种加速ai模型部署的方法和设备
CN113325746A (zh) * 2021-04-30 2021-08-31 北京戴纳实验科技有限公司 一种实验室设备的统一管理控制方法及系统
CN113568749A (zh) * 2021-07-28 2021-10-29 新华智云科技有限公司 基于Elasticsearch集群的shard分配方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170286485A1 (en) * 2016-03-30 2017-10-05 Microsoft Technology Licensing, Llc High Performance Query Processing and Data Analytics
CN107885762A (zh) * 2017-09-19 2018-04-06 北京百度网讯科技有限公司 智能大数据系统、提供智能大数据服务的方法和设备
US10091087B2 (en) * 2015-07-20 2018-10-02 Cisco Technology, Inc. Methods and systems for load balancing based on data shard leader
CN110209496A (zh) * 2019-05-20 2019-09-06 中国平安财产保险股份有限公司 基于数据处理的任务分片方法、装置及分片服务器
CN110609749A (zh) * 2019-09-06 2019-12-24 阿里巴巴集团控股有限公司 一种分布式任务运行方法、系统及设备
US20190392307A1 (en) * 2018-06-21 2019-12-26 Beijing University Of Posts And Telecommunications Method and apparatus for accelerating distributed training of a deep neural network

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10091087B2 (en) * 2015-07-20 2018-10-02 Cisco Technology, Inc. Methods and systems for load balancing based on data shard leader
US20170286485A1 (en) * 2016-03-30 2017-10-05 Microsoft Technology Licensing, Llc High Performance Query Processing and Data Analytics
CN107885762A (zh) * 2017-09-19 2018-04-06 北京百度网讯科技有限公司 智能大数据系统、提供智能大数据服务的方法和设备
US20190392307A1 (en) * 2018-06-21 2019-12-26 Beijing University Of Posts And Telecommunications Method and apparatus for accelerating distributed training of a deep neural network
CN110209496A (zh) * 2019-05-20 2019-09-06 中国平安财产保险股份有限公司 基于数据处理的任务分片方法、装置及分片服务器
CN110609749A (zh) * 2019-09-06 2019-12-24 阿里巴巴集团控股有限公司 一种分布式任务运行方法、系统及设备

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111694640A (zh) * 2020-06-10 2020-09-22 北京奇艺世纪科技有限公司 数据处理方法、装置、电子设备及存储介质
CN111694640B (zh) * 2020-06-10 2023-04-21 北京奇艺世纪科技有限公司 数据处理方法、装置、电子设备及存储介质
CN112597502A (zh) * 2020-12-17 2021-04-02 山东乾云启创信息科技股份有限公司 一种基于可信云的大规模计算服务配置方法及系统
CN112597502B (zh) * 2020-12-17 2023-02-10 山东乾云启创信息科技股份有限公司 一种基于可信云的大规模计算服务配置方法及系统
CN112799680A (zh) * 2021-01-31 2021-05-14 云知声智能科技股份有限公司 一种加速ai模型部署的方法和设备
CN113325746A (zh) * 2021-04-30 2021-08-31 北京戴纳实验科技有限公司 一种实验室设备的统一管理控制方法及系统
CN113568749A (zh) * 2021-07-28 2021-10-29 新华智云科技有限公司 基于Elasticsearch集群的shard分配方法
CN113568749B (zh) * 2021-07-28 2023-09-05 新华智云科技有限公司 基于Elasticsearch集群的shard分配方法

Also Published As

Publication number Publication date
CN111176818B (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
US11182196B2 (en) Unified resource management for containers and virtual machines
CN111176818B (zh) 分布式预测的方法、装置、系统、电子设备及存储介质
US9851989B2 (en) Methods and apparatus to manage virtual machines
US20190250960A1 (en) Method, apparatus, and server for managing image across cloud servers
CN108572845B (zh) 分布式微服务集群的升级方法及相关系统
KR101656360B1 (ko) 자동 분산병렬 처리 하둡 시스템을 지원하는 클라우드 시스템
CN110389903B (zh) 测试环境部署方法和装置、电子设备和可读存储介质
CN108429787B (zh) 容器部署方法及装置、计算机存储介质、终端
CN112822272A (zh) 微服务灰度发布方法及装置、计算机设备及存储介质
CN110647332A (zh) 基于容器云的软件部署方法和装置
US9542173B2 (en) Dependency handling for software extensions
CN111596927B (zh) 服务部署方法、装置及电子设备
KR101751515B1 (ko) 테스트 실행 장치, 방법 및 컴퓨터 프로그램
CN114489833B (zh) 一种在应用程序中提交flink作业到yarn集群的实现方法与装置
CN111459621B (zh) 云仿真集成与调度方法、装置、计算机设备和存储介质
CN113867600A (zh) 处理流式数据的开发方法、装置和计算机设备
US9760364B2 (en) Checks for software extensions
CN113608838A (zh) 应用镜像文件的部署方法、装置、计算机设备和存储介质
US11714615B2 (en) Application migration using cost-aware code dependency graph
CN111782231A (zh) 服务部署方法和装置
CN110727570A (zh) 并发压测方法及相关装置
US20160239283A1 (en) Software product release automation framework
CN115794384A (zh) 代码编译任务分配方法、装置、设备及存储介质
US11720348B2 (en) Computing node allocation based on build process specifications in continuous integration environments
CN112564979B (zh) 构建任务的执行方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant