CN113220459A - 一种任务处理方法及装置 - Google Patents

一种任务处理方法及装置 Download PDF

Info

Publication number
CN113220459A
CN113220459A CN202110580518.7A CN202110580518A CN113220459A CN 113220459 A CN113220459 A CN 113220459A CN 202110580518 A CN202110580518 A CN 202110580518A CN 113220459 A CN113220459 A CN 113220459A
Authority
CN
China
Prior art keywords
task
edge device
subtask
task graph
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110580518.7A
Other languages
English (en)
Other versions
CN113220459B (zh
Inventor
吴海威
高其涛
王鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN202110580518.7A priority Critical patent/CN113220459B/zh
Publication of CN113220459A publication Critical patent/CN113220459A/zh
Application granted granted Critical
Publication of CN113220459B publication Critical patent/CN113220459B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/502Proximity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/509Offload
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例提供了一种任务处理方法及装置,应用于第一边缘设备,包括:获取任务,任务包括多个子任务;根据任务包括的多个子任务和每个子任务的执行顺序,生成原始任务图;根据与第一边缘设备连接的第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,对原始任务图进行拆分,得到目标拆分任务图;向每个边缘设备分别下发目标拆分任务图,并在每个边缘设备上对对应的子任务进行任务卸载,以使每个边缘设备执行相应的子任务。应用本申请实施例提供的技术方案,能够降低计算集群的部署难度和成本,降低任务的处理延时,提高数据安全性。

Description

一种任务处理方法及装置
技术领域
本申请涉及计算机技术领域,特别是涉及一种任务处理方法及装置。
背景技术
为满足企业、工厂、楼宇、交通和医疗等场景对人脸识别、周界防范和区域监控等任务的需求,在网络边缘部署了大量的设备,以下可以简称为边缘设备。边缘设备的计算资源比较紧缺。这种情况下,为满足上述对各种任务对计算资源的需求,在计算集群分为三层,分别为云层、边缘层和设备层。设备层包括多个边缘设备,用于收集数据和创建任务,云层和边缘层负责完成任务的计算。
通过上述计算集群,解决了边缘设备的计算资源紧缺,无法完成任务计算的问题,但需要额外部署云层和边缘层,增加了计算集群的部署难度和成本。此外,任务需要由边缘设备发送至云层和边缘层,再由云层和边缘层完成任务的计算,这导致任务的处理延时较长,数据安全性较差。
发明内容
本申请实施例的目的在于提供一种任务处理方法及装置,以降低计算集群的部署难度和成本,降低任务的处理延时,提高数据安全性。具体技术方案如下:
第一方面,本申请实施例提供了一种任务处理方法,应用于第一边缘设备,所述方法包括:
获取任务,所述任务包括多个子任务;
根据所述任务包括的多个子任务和每个子任务的执行顺序,生成原始任务图,所述原始任务图包括多个节点,每个节点与子任务一一对应,相邻两个节点的矢量边表示所述相邻两个节点的执行顺序;
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到目标拆分任务图,所述目标拆分任务图包括的每个节点上标记了执行每个节点对应的子任务的边缘设备;
向每个边缘设备分别下发所述目标拆分任务图,并在每个边缘设备上对对应的子任务进行任务卸载,以使每个边缘设备执行相应的子任务。
可选的,所述根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述任务图进行拆分,得到目标拆分任务图的步骤,包括:
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到多个初始拆分任务图;
确定按照每个初始拆分任务图完成一次任务计算的总耗时;
将最小总耗时对应的初始拆分任务图作为目标拆分任务图。
可选的,当所述原始任务图包括多条计算路径时,所述确定按照每个初始拆分任务图完成一次任务计算的总耗时的步骤,包括:
针对每个初始拆分任务图,根据该初始拆分任务图包括的每个节点对应的子任务的处理时间、相连节点上标记的边缘设备不同时的通信时间和等待时间,确定按照该初始拆分任务图包括的每条计算路径完成一次任务计算的单次耗时;将最大单次耗时作为该初始拆分任务图完成一次任务计算的总耗时。
可选的,所述根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到目标拆分任务图的步骤,包括:
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,利用穷举算法或启发式智能算法,对所述原始任务图进行拆分,得到目标拆分任务图。
可选的,在对每个子任务向对应的边缘设备进行任务卸载之后,所述方法还包括:
采集待处理数据,并按照所述目标拆分任务图,将所述待处理数据下发给各个边缘设备,以使每个边缘设备基于所述待处理数据执行相应的子任务。
第二方面,本申请实施例提供了一种任务处理装置,应用于第一边缘设备,所述装置包括:
获取单元,用于获取任务,所述任务包括多个子任务;
生成单元,用于根据所述任务包括的多个子任务和每个子任务的执行顺序,生成原始任务图,所述原始任务图包括多个节点,每个节点与子任务一一对应,相邻两个节点的矢量边表示所述相邻两个节点的执行顺序;
拆分单元,用于根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到目标拆分任务图,所述目标拆分任务图包括的每个节点上标记了执行每个节点对应的子任务的边缘设备;
卸载单元,用于向每个边缘设备分别下发所述目标拆分任务图,并在每个边缘设备上对对应的子任务进行任务卸载,以使每个边缘设备执行相应的子任务。
可选的,所述拆分单元,具体用于:
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到多个初始拆分任务图;
确定按照每个初始拆分任务图完成一次任务计算的总耗时;
将最小总耗时对应的初始拆分任务图作为目标拆分任务图。
可选的,所述拆分单元,具体用于:
当所述原始任务图包括多条计算路径时,针对每个初始拆分任务图,根据该初始拆分任务图包括的每个节点对应的子任务的处理时间、相连节点上标记的边缘设备不同时的通信时间和等待时间,确定按照该初始拆分任务图包括的每条计算路径完成一次任务计算的单次耗时;将最大单次耗时作为该初始拆分任务图完成一次任务计算的总耗时。
可选的,所述拆分单元,具体用于:
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,利用穷举算法或启发式智能算法,对所述原始任务图进行拆分,得到目标拆分任务图。
可选的,所述装置还包括:
采集单元,用于在对每个子任务向对应的边缘设备进行任务卸载之后,采集待处理数据,并按照所述目标拆分任务图,将所述待处理数据下发给各个边缘设备,以使每个边缘设备基于所述待处理数据执行相应的子任务。
第三方面,本申请实施例提供了一种边缘设备,包括处理器和机器可读存储介质,所述机器可读存储介质存储有能够被所述处理器执行的机器可执行指令,所述处理器被所述机器可执行指令促使:实现上述任一所述的方法步骤。
第四方面,本申请实施例提供了种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一所述的方法步骤。
本申请实施例还提供了一种计算机程序,当其在计算机上运行时,使得计算机执行上述任一所述的方法步骤。
本申请实施例有益效果:
本申请实施例提供的技术方案中,根据任务包括的多个子任务和每个子任务的执行顺序,生成原始任务图;对原始任务图进行拆分,确定每个边缘设备执行的子任务,进而得到目标拆分任务图;向每个边缘设备分别下发目标拆分任务图,并对每个子任务向对应的边缘设备进行任务卸载。这种情况下,各个边缘设备可以执行相应的子任务。
本申请实施例提供的技术方案中,边缘设备间协同计算,完成任务的计算,不需要额外云层和边缘层,也不需要经过公共网络传输数据,降低了计算集群的部署难度和成本,提高了数据安全性。此外,边缘设备间的链路长度远小于边缘设备与云层和边缘层间的链路长度。因此,本申请实施例提供的技术方案中,边缘设备间协同计算,完成任务的计算,降低任务的处理延时。
当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1a为安防设备的结构的一种示意图;
图1b为安防设备的结构的另一种示意图;
图1c为安防设备的结构的再一种示意图;
图2为相关技术中计算集群的结构的一种示意图;
图3a为本申请实施例提供的分布式计算集群的结构的一种示意图;
图3b为本申请实施例提供的分布式计算集群的结构的另一种示意图;
图4为本申请实施例提供的任务处理方法的一种流程示意图;
图5a为本申请实施例提供的原始任务图的一种示意图;
图5b为基于图5a所示的原始任务图的目标拆分任务图的一种示意图;
图5c为基于图5b所示的目标拆分任务图的任务卸载的一种示意图;
图6为本申请实施例提供的任务处理方法的另一种流程示意图;
图7为本申请实施例提供的原始任务图的另一种示意图;
图8为图7所示的原始任务图的计算路径的一种示意图;
图9为基于图7所示的原始任务图的目标拆分任务图的一种示意图;
图10为本申请实施例提供的任务处理装置的一种结构示意图;
图11为本申请实施例提供的边缘设备的一种结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为便于理解,下面对本申请实施例中出现的词语进行解释说明。
分布式相机:是指一台运行协同计算框架的相机。多台分布式相机可以组建分布式集群。
计算系统:是设备中的处理器系统、以及周边存储和通信等硬件系统的统称。
安防设备:是指带有处理器的设备。安防设备可以包括但不限于各类型家用或商用的监控相机、带有或不带有其他类型传感器的计算设备、以及通信设备等。其中,计算设备可以包括但不限于NVR(Network Video Recorder,网络视频录像机)、DVR(DigitalVideo Recorder,硬盘录像机)和超脑等设备。通信设备可以包括但不限于路由器、交换机、USB Hub(Universal Serial Bus Hub,通用串行总线集线器)、PCIE(peripheralcomponent interconnect express,高速串行计算机扩展总线标准)交换机等设备。安防设备的结构如图1a、1b和1c所示。
计算集群:是指多台设备通过某种通信介质连接组成的硬件环境。
任务:是指一个具体的业务应用,比如人脸识别、违章抓拍和周界防范等。
协同计算:是指多个计算系统共同对一个任务中的相同或不同部分进行计算。
任务卸载:是指对任务的处理流程、算法以及依赖资源等执行环境进行准备。
相关技术中,计算集群的部署如图2所示,包括云层21、边缘层22和设备层23。设备层23包括多个边缘设备,用于收集数据和创建任务。边缘层22设置在云层21和设备层23之间,以拉近云层21和设备层23之间的通信距离。边缘层22执行单边计算和/或边边协同,完成任务。云层21执行云计算,以完成任务。
通过上述计算集群,能够解决边缘设备的计算资源紧缺,无法完成任务计算的问题,但需要额外部署云层和边缘层,增加了计算集群的部署难度和成本。
此外,为完成任务,上述计算集群中的边缘设备需要经过公共网关,基于深度强化学习的资源调度算法,将数据传输至云层和边缘层,这对数据的安全性带来了极大的挑战。再者,边缘设备与云层21和边缘层22之间存在着一定的通信距离,边缘设备将数据传输至云层和边缘层,来完成任务的计算,这导致任务的处理延时较长。
为解决上述问题,本申请实施例提供了一种任务处理方法。该任务处理方法可以应用于边缘设备,该边缘设备可以为分布式相机、NVR、DVR或超脑等运行有协同计算框架的安防设备。多台运行有协同计算框架的边缘设备可以通过网络、PCIE或USB等各类型通信接口进行互联,构建成分布式计算集群。该分布式计算集群中多台边缘设备协同计算来完成任务的计算。
该分布式计算集群的结构可以为如图3a所示的星型连接结构,该星型连接结构中多台边缘设备挂接在同一个安防设备上,该同一个安防设备可以为路由器,也可以为分布式相机、NVR或DVR等设备。该分布式计算集群的结构还可以为如图3b所示的混合连接结构。该混合连接结构具有更加复杂的连接方式,将链型和星型连接结构混合在一起的一种结构。该分布式计算集群的结构还可以为其他形式,并不做具体限定。
上述任务处理方法可以应用于交通、园区、楼宇、车站等需要铺设大量监控设备的区域、数据安全和隐私性强又需要强大计算能力的场景、其他需要各设备之间协同计算的场景等。
上述任务处理方法中,根据任务包括的多个子任务和每个子任务的执行顺序,生成原始任务图;对原始任务图进行拆分,确定每个边缘设备执行的子任务,进而得到目标拆分任务图;向每个边缘设备分别下发目标拆分任务图,并对每个子任务向对应的边缘设备进行任务卸载。这种情况下,各个边缘设备可以执行相应的子任务。
本申请实施例提供的技术方案中,边缘设备间协同计算,完成任务的计算,不需要额外云层和边缘层,也不需要经过公共网络传输数据,降低了计算集群的部署难度和成本,提高了数据安全性。此外,边缘设备间的链路长度远小于边缘设备与云层和边缘层间的链路长度。因此,本申请实施例提供的技术方案中,边缘设备间协同计算,完成任务的计算,降低任务的处理延时。
下面通过具体实施例,对本申请实施例提供的任务处理方法进行详细说明。
参见图4,图4为本申请实施例提供的任务处理方法的一种流程示意图,该方法应用于计算集群中的任一边缘设备,为便于理解,下面以第一边缘设备为例进行说明,并不起限定作用。该方法包括如下步骤。
步骤S41,获取任务,任务包括多个子任务。
本申请实施例中,用户可以直接向第一边缘设备输入需要执行的任务,进而第一边缘设备获取到任务。用户也可以通过其他设备向第一边缘设备发送需要执行的任务,进而第一边缘设备获取到任务。
该任务可以包括多个子任务。子任务在任一设备上可以完成任务卸载。子任务可以为任务中的最小任务单元。以便于后续准确的任务拆分。
步骤S42,根据任务包括的多个子任务和每个子任务的执行顺序,生成原始任务图,原始任务图包括多个节点,每个节点与子任务一一对应,相邻两个节点的矢量边表示相邻两个节点的执行顺序。
本申请实施例中,在获取到任务后,第一边缘设备根据任务包括的多个子任务的执行顺序生成原始任务图。该原始任务图包括多个节点,每个节点与子任务一一对应,节点间通过矢量边连接。矢量边指示所连接的两个节点的执行顺序。
例如,第一边缘设备获取的任务包括7个子任务,分别为子任务1-7。其中,子任务1-7的执行顺序为:子任务1执行结束后,执行子任务2;子任务3执行结束后,执行子任务4;子任务2和子任务4执行结束后,执行子任务5;子任务5执行结束后,执行子任务6;子任务5和子任务6执行结束后,执行子任务7;子任务6执行结束后,执行子任务2。基于上述子任务1-7的执行顺序,第一边缘设备生成原始任务图,如图5a所示。图5a中,圆圈表示节点,1表示子任务1,2表示子任务2,3表示子任务3,4表示子任务4,5表示子任务5,6表示子任务6,7表示子任务7。“→”表示矢量边。
为便于后续对原始任务图进行拆分,第一边缘设备可以在原始任务图包括的每个节点上,标记对应的子任务对计算资源需求信息、对运行设备的约束条件等子约束信息。上述计算资源需求信息和运行设备的约束条件包括但不限于CPU(Central ProcessingUnit,中央处理器)及其他计算资源、内存和通信带宽等。
步骤S43,根据与第一边缘设备连接的第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,对原始任务图进行拆分,得到目标拆分任务图,目标拆分任务图包括的每个节点上标记了执行每个节点对应的子任务的边缘设备。
其中,第二边缘设备可以为一个或多个。第二边缘设备可以与第一边缘设备直接连接或通过其他设备连接的边缘设备。以如图3b所示的混合连接结构为例,若第一边缘设备为边缘设备a,则第二边缘设备可以为与边缘设备a直接连接的边缘设备b,第二边缘设备也可以为与边缘设备a通过其他边缘设备连接的边缘设备c和d等。
本申请实施例中,第一边缘设备根据第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,确定执行各个子任务的边缘设备,进而对原始任务图进行拆分,得到目标拆分任务图,目标拆分任务图包括的每个节点上标记了执行每个节点对应的子任务的边缘设备。
仍以图5a所示的原始任务图为例进行说明。第一边缘设备根据第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,确定子任务1和2由边缘设备1执行,子任务3和4由边缘设备2执行,子任务5、6和7由边缘设备3执行。此时,第一边缘设备对原始任务图进行拆分,得到目标拆分任务图,如图5b所示。
在本申请的一个实施例中,第一边缘设备可以根据第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,利用穷举算法,对原始任务图进行拆分,得到目标拆分任务图。
在本申请的另一个实施例中,第一边缘设备可以根据第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,利用启发式智能算法,对原始任务图进行拆分,得到目标拆分任务图。其中,启发式智能算法包括但不限于模拟退火算法、神经网络等。
第一边缘设备中可以设置穷举算法和启发式智能算法。第一边缘设备确定搜索空间的大小,其中,搜索空间包括任务图的各种拆分方案,搜索空间的大小指搜索空间包括的拆分方案的总数。第一边缘设备根据搜索空间的大小,确定是利用启发式智能算法对原始任务图进行拆分,还是利用穷举算法对原始任务图进行拆分。
例如,若搜索空间的大小小于预设阈值,则第一边缘设备利用穷举算法对原始任务图进行拆分,得到目标拆分任务图。若搜索空间的大小大于等于预设阈值,则第一边缘设备利用启发式智能算法对原始任务图进行拆分,得到目标拆分任务图。
步骤S44,向每个边缘设备分别下发目标拆分任务图,并在每个边缘设备上对对应的子任务进行任务卸载,以使每个边缘设备执行相应的子任务。
本申请实施例中,在得到目标拆分任务图后,第一边缘设备向每个边缘设备分别下发目标拆分任务图。这样,当后续计算集群变动或边缘设备的负载大幅变化时,可以快速进行重调度和计算资源的转移。
另外,第一边缘设备向在每个边缘设备上对对应的子任务进行任务卸载,使得每个边缘设备上准备好执行各个子任务的执行环境。这种情况下,每个边缘设备可以执行相应的子任务,并在执行完成各个子任务后,按照目标拆分任务图,每个边缘设备将执行结果转发给相应的其他边缘设备,进而完成整个任务的计算。
仍以图5b所示的目标拆分任务图为例进行说明。此时,第一边缘设备在边缘设备1上对子任务1和2进行任务卸载,在边缘设备2上对子任务3和4进行任务卸载,在边缘设备3上对子任务5、6和7进行任务卸载。另外,第一边缘设备分别向边缘设备1、2和3分别下发图5b所示的目标拆分任务图,如图5c所示。这样,边缘设备1执行子任务1和2后,将执行子任务2后得到的执行结果发送至边缘设备3;边缘设备2执行子任务3和4后,将执行子任务4后得到的执行结果发送至边缘设备3;边缘设备3执行子任务5、6和7后,将执行子任务6后得到的执行结果反馈至边缘设备2,执行子任务7后得到的执行结果作为任务的最终执行结果,并反馈给第一边缘设备。
本申请实施例中,多个边缘设备可以并行执行多个任务,以提高任务处理效率。本申请实施例中,多个边缘设备也可以一次只执行一个任务,在一个任务处理结束后,在执行另一任务,以降低对边缘设备中其他业务的影响。
不同于相关技术的以云层和边缘层为中心的计算集群架构。本申请实施例提供的技术方案中,将任务计算直接下沉到各边缘设备上,将分布式计算引入的边缘设备的计算中。通过边缘设备之间的协同,来完成对计算资源要求较高的任务的处理。此时,不需要额外云层和边缘层,也不需要经过公共网络传输数据,降低了计算集群的部署难度和成本,提高了数据安全性。此外,边缘设备间的链路长度远小于边缘设备与云层和边缘层间的链路长度。因此,本申请实施例提供的技术方案中,边缘设备间协同计算,完成任务的计算,降低任务的处理延时。
在本申请的一个实施例中,第一边缘设备采集待处理数据,并按照目标拆分任务图,将待处理数据下发给各个边缘设备,以使每个边缘设备基于待处理数据执行相应的子任务。
本申请实施例中,边缘设备之间构建高通信质量的计算集群,该计算集群离数据最近,能够解决单边缘设备计算资源不足的同时,又能最大程度的降低通信延时,消除数据隐私和安全问题,数据不会流出用户的边缘设备,用户无需为自己的数据安全担心。
本申请实施例中,在没有云层和边缘层存在的情况下,每个边缘设备可直接工作,发起自己的任务,边缘设备之间全部对等,适合边缘设备的集群不固定,需要自由组网的特点。
这种情况下,用户可以根据自己的业务特点决定任务部署的位置,以及是否混合部署。这可以给用户很高的定制自由度,无需购买相关的云服务或网络带宽,即可利用已有的边缘设备,构建自己的计算集群,提高了计算集群部署的灵活性。
本申请实施例中,每台边缘设备中的任务既可以在该边缘设备中计算,也可以与其他边缘设备协同计算。用户可以根据需要在计算集群中选择是否开启协同计算功能。对用户而言有很强的定制特性,可以将数据限定到单台边缘设备、多台边缘设备等不同的来提升数据隐私和安全等级,同时也可以通过协同计算充分利用各个边缘设备的计算资源。这使得整个计算集群安全性高,且部署灵活
另外,本申请实施例中,可以充分利用边缘设备的计算资源,比如某个时间段内一些闸口人流量多,而另一些闸口人流量少,那么就可以通过不同地方的计算资源之间的协同计算,完成计算资源的快速转移。无需特意安装价格高昂的高端设备或服务,也不需要部署特殊的设备或线路,降低了计算集群的部署难度和成本。
不同于云层和边缘层的计算资源调度,本申请实施例中,对资源的管理方式比较粗放,适用于计算资源有限的边缘设备的计算资源调度;该计算资源调度的工程实现难度小,可达到100毫秒(ms)左右的快速调度。以任务的处理延时为优化目标,本申请实施例提供的技术方案能够使得任务得到最好的实时性。
在本申请的一个实施例中,本申请实施例还提供了一种任务处理方法,如图6所示,该方法中,步骤S43可以细化为步骤S431、S432和S433。
步骤S431,根据与第一边缘设备连接的第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,对原始任务图进行拆分,得到多个初始拆分任务图。
本申请实施例中,第一边缘设备根据第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,对原始任务图进行拆分,得到多个初始拆分任务图,初始拆分任务图包括的每个节点上标记了执行每个节点对应的子任务的边缘设备。具体的拆分方式,可参见上述步骤S43部分的描述。
步骤S432,确定按照每个初始拆分任务图完成一次任务计算的总耗时。
本申请实施例中,对于每个初始拆分任务图,第一边缘设备假设按照该初始拆分任务图完成一次任务计算所消耗的时间,即按照该初始拆分任务图完成一次任务计算的总耗时,也可以称为该初始拆分任务图对应的总耗时。
在本申请的一个实施例中,当原始任务图包括多条计算路径时。针对每个初始拆分任务图,根据该初始拆分任务图包括的每个节点对应的子任务的处理时间、相连节点上标记的边缘设备不同时的通信时间和等待时间,确定按照该初始拆分任务图包括每条计算路径完成一次任务计算的单次耗时;将最大单次耗时作为该初始拆分任务图完成一次任务计算的总耗时。
步骤S433,将最小总耗时对应的初始拆分任务图作为目标拆分任务图。
本申请实施例中,第一边缘设备得到每个初始拆分任务图对应的总耗时后,从多个初始拆分任务图中,选择总耗时最小的初始拆分任务图,作为目标拆分任务图。
本申请实施例中,第一边缘设备将最小总耗时对应的初始拆分任务图作为目标拆分任务图,可得到耗时最小的拆分任务图,以最大程度地提高任务的处理效率。
例如,如图7所示的任务图。图7中,圆圈表示节点,1表示子任务1,2表示子任务2,3表示子任务3,4表示子任务4,5表示子任务5,6表示子任务6,“→”表示矢量边。图7所示的任务图包括4条计算路径,如图8所示,包括计算路径1-4。图7所示的任务图的拆分方案有多种。对于每种拆分方案,边缘设备分别确定按照计算路径1完成一次任务计算的单次耗时Alltime1,按照计算路径2完成一次任务计算的单次耗时Alltime2,按照计算路径3完成一次任务计算的单次耗时Alltime3,按照计算路径4完成一次任务计算的单次耗时Alltime4。边缘设备从Alltime1、Alltime2、Alltime3和Alltime4中选择最大的单次耗时,例如,选择了Alltime1,则将Alltime1作为该拆分方案的总耗时,即该拆分方案下的初始拆分任务图完成一次任务计算的总耗时。
以如图9所示的拆分方案下的初始拆分任务图为例进行说明。在图9所示的拆分方案下,边缘设备1对子任务0的处理时间和值的T10,边缘设备3对子任务1的处理时间和值的T11,边缘设备1对子任务2的处理时间和值的T12,边缘设备2对子任务3的处理时间和值的T13,边缘设备3对子任务4的处理时间和值的T14,边缘设备3对子任务5的处理时间和值的T15,边缘设备2对子任务6的处理时间和值的T16;边缘设备1向边缘设备2之间的通信时间T21,边缘设备1向边缘设备3之间的通信时间T22,边缘设备3向边缘设备2之间的通信时间T23;
边缘设备2接收到边缘设备1的执行结果至开始执行子任务的等待时间T31,边缘设备2接收到边缘设备3的执行结果至开始执行子任务的等待时间T32,边缘设备3接收到边缘设备1的执行结果至开始执行子任务的等待时间T33。
这种情况下,Alltime1'为:T10+T12+T13+T16+T21+T31;
Alltime2'为:T10+T12+T15+T16+T22+T32+T23+T33;
Alltime3'为:T10+T14+T15+T16+T22+T32+T23+T33;
Alltime4'为:T11+T14+T15+T16+T23+T33。
边缘设备从Alltime1'、Alltime2'、Alltime3'和Alltime4'中,选择最大的单次耗时,例如,选择了Alltime1'。
从多种拆分方案的总耗时中选择最小的总耗时,将所选择总耗时对应的初始拆分任务图作为目标拆分任务图。
以人脸识别任务为例进行说明。人脸识别设备(即边缘设备)建立人脸识别任务,人脸识别设备接收到该人脸识别任务后,创建针对该人脸识别任务的任务图,并协同计算调度请求。如果计算集群中当前没有其他设备,则所有的子任务都调度到本机完成;如果算集群中当前存在其他设备,那么就会根据每个子任务的特点以及各设备的资源信息完成任务图拆分。每个设备接收到拆分后得到的任务图和必要资源后,对子任务进行任务卸载。发起任务的人脸识别设备启动自身的摄像头开始采集视频数据,并在整个计算集群中协同完成人脸识别过程。
上述边缘设备完成任务处理可以理解为,由多个边缘设备上的计算系统协同计算,来完成任务处理。
与上述任务处理方法对应,本申请实施例还提供了一种任务处理装置,如图10所示,应用于第一边缘设备,该装置包括:
获取单元101,用于获取任务,任务包括多个子任务;
生成单元102,用于根据任务包括的多个子任务和每个子任务的执行顺序,生成原始任务图,原始任务图包括多个节点,每个节点与子任务一一对应,相邻两个节点的矢量边表示相邻两个节点的执行顺序;
拆分单元103,用于根据与第一边缘设备连接的第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,对原始任务图进行拆分,得到目标拆分任务图,目标拆分任务图包括的每个节点上标记了执行每个节点对应的子任务的边缘设备;
卸载单元104,用于向每个边缘设备分别下发目标拆分任务图,并在每个边缘设备上对对应的子任务进行任务卸载,以使每个边缘设备执行相应的子任务。
在本申请的一个实施例中,拆分单元103,具体可以用于:
根据与第一边缘设备连接的第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,对原始任务图进行拆分,得到多个初始拆分任务图;
确定按照每个初始拆分任务图完成一次任务计算的总耗时;
将最小总耗时对应的初始拆分任务图作为目标拆分任务图。
在本申请的一个实施例中,拆分单元103,具体可以用于:
当原始任务图包括多条计算路径时,针对每个初始拆分任务图,根据该初始拆分任务图包括的每个节点对应的子任务的处理时间、相连节点上标记的边缘设备不同时的通信时间和等待时间,确定按照该初始拆分任务图包括的每条计算路径完成一次任务计算的单次耗时;将最大单次耗时作为该初始拆分任务图完成一次任务计算的总耗时。
在本申请的一个实施例中,拆分单元103,具体可以用于:
根据与第一边缘设备连接的第二边缘设备的资源信息和第一边缘设备的资源信息,以及每个子任务的约束信息,利用穷举算法或启发式智能算法,对原始任务图进行拆分,得到目标拆分任务图。
在本申请的一个实施例中,上述任务处理装置还可以包括:
采集单元,用于在对每个子任务向对应的边缘设备进行任务卸载之后,采集待处理数据,并按照目标拆分任务图,将待处理数据下发给各个边缘设备,以使每个边缘设备基于待处理数据执行相应的子任务。
本申请实施例提供的技术方案中,边缘设备间协同计算,完成任务的计算,不需要额外云层和边缘层,也不需要经过公共网络传输数据,降低了计算集群的部署难度和成本,提高了数据安全性。此外,边缘设备间的链路长度远小于边缘设备与云层和边缘层间的链路长度。因此,本申请实施例提供的技术方案中,边缘设备间协同计算,完成任务的计算,降低任务的处理延时。
与上述任务处理方法对应,本申请实施例还提供了一种边缘设备,如图11所示,包括处理器111和机器可读存储介质112,机器可读存储介质112存储有能够被处理器111执行的机器可执行指令,处理器111被机器可执行指令促使:实现上述任一任务处理方法步骤。
机器可读存储介质可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,机器可读存储介质还可以是至少一个位于远离前述处理器的存储装置。
处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一任务处理方法步骤。
在本申请提供的又一实施例中,还提供了一种计算机程序,当其在计算机上运行时,使得计算机执行上述任一任务处理方法步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于任务处理装置、边缘设备、计算机可读存储介质和计算机程序实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。

Claims (12)

1.一种任务处理方法,其特征在于,应用于第一边缘设备,所述方法包括:
获取任务,所述任务包括多个子任务;
根据所述任务包括的多个子任务和每个子任务的执行顺序,生成原始任务图,所述原始任务图包括多个节点,每个节点与子任务一一对应,相邻两个节点的矢量边表示所述相邻两个节点的执行顺序;
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到目标拆分任务图,所述目标拆分任务图包括的每个节点上标记了执行每个节点对应的子任务的边缘设备;
向每个边缘设备分别下发所述目标拆分任务图,并在每个边缘设备上对对应的子任务进行任务卸载,以使每个边缘设备执行相应的子任务。
2.根据权利要求1所述的方法,其特征在于,所述根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述任务图进行拆分,得到目标拆分任务图的步骤,包括:
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到多个初始拆分任务图;
确定按照每个初始拆分任务图完成一次任务计算的总耗时;
将最小总耗时对应的初始拆分任务图作为目标拆分任务图。
3.根据权利要求2所述的方法,其特征在于,当所述原始任务图包括多条计算路径时,所述确定按照每个初始拆分任务图完成一次任务计算的总耗时的步骤,包括:
针对每个初始拆分任务图,根据该初始拆分任务图包括的每个节点对应的子任务的处理时间、相连节点上标记的边缘设备不同时的通信时间和等待时间,确定按照该初始拆分任务图包括的每条计算路径完成一次任务计算的单次耗时;将最大单次耗时作为该初始拆分任务图完成一次任务计算的总耗时。
4.根据权利要求1所述的方法,其特征在于,所述根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到目标拆分任务图的步骤,包括:
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,利用穷举算法或启发式智能算法,对所述原始任务图进行拆分,得到目标拆分任务图。
5.根据权利要求1-4任一项所述的方法,其特征在于,在对每个子任务向对应的边缘设备进行任务卸载之后,所述方法还包括:
采集待处理数据,并按照所述目标拆分任务图,将所述待处理数据下发给各个边缘设备,以使每个边缘设备基于所述待处理数据执行相应的子任务。
6.一种任务处理装置,其特征在于,应用于第一边缘设备,所述装置包括:
获取单元,用于获取任务,所述任务包括多个子任务;
生成单元,用于根据所述任务包括的多个子任务和每个子任务的执行顺序,生成原始任务图,所述原始任务图包括多个节点,每个节点与子任务一一对应,相邻两个节点的矢量边表示所述相邻两个节点的执行顺序;
拆分单元,用于根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到目标拆分任务图,所述目标拆分任务图包括的每个节点上标记了执行每个节点对应的子任务的边缘设备;
卸载单元,用于向每个边缘设备分别下发所述目标拆分任务图,并在每个边缘设备上对对应的子任务进行任务卸载,以使每个边缘设备执行相应的子任务。
7.根据权利要求6所述的装置,其特征在于,所述拆分单元,具体用于:
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,对所述原始任务图进行拆分,得到多个初始拆分任务图;
确定按照每个初始拆分任务图完成一次任务计算的总耗时;
将最小总耗时对应的初始拆分任务图作为目标拆分任务图。
8.根据权利要求7所述的装置,其特征在于,所述拆分单元,具体用于:
当所述原始任务图包括多条计算路径时,针对每个初始拆分任务图,根据该初始拆分任务图包括的每个节点对应的子任务的处理时间、相连节点上标记的边缘设备不同时的通信时间和等待时间,确定按照该初始拆分任务图包括的每条计算路径完成一次任务计算的单次耗时;将最大单次耗时作为该初始拆分任务图完成一次任务计算的总耗时。
9.根据权利要求6所述的装置,其特征在于,所述拆分单元,具体用于:
根据与所述第一边缘设备连接的第二边缘设备的资源信息和所述第一边缘设备的资源信息,以及每个子任务的约束信息,利用穷举算法或启发式智能算法,对所述原始任务图进行拆分,得到目标拆分任务图。
10.根据权利要求6-9任一项所述的装置,其特征在于,所述装置还包括:
采集单元,用于在对每个子任务向对应的边缘设备进行任务卸载之后,采集待处理数据,并按照所述目标拆分任务图,将所述待处理数据下发给各个边缘设备,以使每个边缘设备基于所述待处理数据执行相应的子任务。
11.一种边缘设备,其特征在于,包括处理器和机器可读存储介质,所述机器可读存储介质存储有能够被所述处理器执行的机器可执行指令,所述处理器被所述机器可执行指令促使:实现权利要求1-5任一所述的方法步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-5任一所述的方法步骤。
CN202110580518.7A 2021-05-26 2021-05-26 一种任务处理方法及装置 Active CN113220459B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110580518.7A CN113220459B (zh) 2021-05-26 2021-05-26 一种任务处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110580518.7A CN113220459B (zh) 2021-05-26 2021-05-26 一种任务处理方法及装置

Publications (2)

Publication Number Publication Date
CN113220459A true CN113220459A (zh) 2021-08-06
CN113220459B CN113220459B (zh) 2023-10-10

Family

ID=77098938

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110580518.7A Active CN113220459B (zh) 2021-05-26 2021-05-26 一种任务处理方法及装置

Country Status (1)

Country Link
CN (1) CN113220459B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114968525A (zh) * 2022-05-26 2022-08-30 深圳致星科技有限公司 隐私计算和隐私数据保护的云原生任务调度方法及装置
CN115202908A (zh) * 2022-09-09 2022-10-18 杭州海康威视数字技术股份有限公司 一种基于动态编排的隐私计算请求响应方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6097886A (en) * 1998-02-17 2000-08-01 Lucent Technologies Inc. Cluster-based hardware-software co-synthesis of heterogeneous distributed embedded systems
US20130191843A1 (en) * 2011-08-23 2013-07-25 Infosys Limited System and method for job scheduling optimization
CN103729257A (zh) * 2012-10-16 2014-04-16 阿里巴巴集团控股有限公司 一种分布式并行计算方法以及系统
CN110427261A (zh) * 2019-08-12 2019-11-08 电子科技大学 一种基于深度蒙特卡洛树搜索的边缘计算任务分配方法
CN111310922A (zh) * 2020-03-27 2020-06-19 北京奇艺世纪科技有限公司 处理深度学习计算任务的方法、装置、设备和存储介质
CN111400008A (zh) * 2020-03-13 2020-07-10 北京旷视科技有限公司 计算资源调度方法、装置及电子设备
CN111427681A (zh) * 2020-02-19 2020-07-17 上海交通大学 边缘计算中基于资源监控的实时任务匹配调度系统和方法
CN111782389A (zh) * 2020-06-22 2020-10-16 中科边缘智慧信息科技(苏州)有限公司 机动边缘信息服务网络下的任务调度系统及方法
CN112379985A (zh) * 2020-11-16 2021-02-19 深圳供电局有限公司 一种云边缘计算环境下的计算任务分配方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6097886A (en) * 1998-02-17 2000-08-01 Lucent Technologies Inc. Cluster-based hardware-software co-synthesis of heterogeneous distributed embedded systems
US20130191843A1 (en) * 2011-08-23 2013-07-25 Infosys Limited System and method for job scheduling optimization
CN103729257A (zh) * 2012-10-16 2014-04-16 阿里巴巴集团控股有限公司 一种分布式并行计算方法以及系统
CN110427261A (zh) * 2019-08-12 2019-11-08 电子科技大学 一种基于深度蒙特卡洛树搜索的边缘计算任务分配方法
CN111427681A (zh) * 2020-02-19 2020-07-17 上海交通大学 边缘计算中基于资源监控的实时任务匹配调度系统和方法
CN111400008A (zh) * 2020-03-13 2020-07-10 北京旷视科技有限公司 计算资源调度方法、装置及电子设备
CN111310922A (zh) * 2020-03-27 2020-06-19 北京奇艺世纪科技有限公司 处理深度学习计算任务的方法、装置、设备和存储介质
CN111782389A (zh) * 2020-06-22 2020-10-16 中科边缘智慧信息科技(苏州)有限公司 机动边缘信息服务网络下的任务调度系统及方法
CN112379985A (zh) * 2020-11-16 2021-02-19 深圳供电局有限公司 一种云边缘计算环境下的计算任务分配方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114968525A (zh) * 2022-05-26 2022-08-30 深圳致星科技有限公司 隐私计算和隐私数据保护的云原生任务调度方法及装置
CN115202908A (zh) * 2022-09-09 2022-10-18 杭州海康威视数字技术股份有限公司 一种基于动态编排的隐私计算请求响应方法及装置

Also Published As

Publication number Publication date
CN113220459B (zh) 2023-10-10

Similar Documents

Publication Publication Date Title
US10289973B2 (en) System and method for analytics-driven SLA management and insight generation in clouds
US11119825B2 (en) Dynamic task allocation and node reconfiguration in mesh network
CN108366082B (zh) 扩容方法及扩容装置
CN113742031B (zh) 节点状态信息获取方法、装置、电子设备及可读存储介质
Ugwuanyi et al. Reliable resource provisioning using bankers’ deadlock avoidance algorithm in MEC for industrial IoT
CN113220459A (zh) 一种任务处理方法及装置
CN111352711B (zh) 多计算引擎调度方法、装置、设备及存储介质
EP4002231A1 (en) Federated machine learning as a service
WO2022001941A1 (zh) 网元管理方法、网管系统、独立计算节点、计算机设备、存储介质
CN112000457A (zh) 管理处理系统中的任务的方法、设备和计算机程序产品
CN114489954A (zh) 基于虚拟化平台的租户创建方法、租户访问方法及设备
CN111049900B (zh) 一种物联网流计算调度方法、装置和电子设备
US10659385B2 (en) Provisioning insight services in a data provider landscape
CN114298331A (zh) 数据处理方法及装置、设备、存储介质
WO2023209414A1 (en) Methods and apparatus for computing resource allocation
CN114301980A (zh) 容器集群的调度方法、装置、系统及计算机可读介质
Moreno-Vozmediano et al. Latency and resource consumption analysis for serverless edge analytics
CN114035861A (zh) 集群配置方法、装置、电子设备和计算机可读介质
Mukunthan et al. Multilevel Petri net‐based ticket assignment and IT management for improved IT organization support
CN114579054A (zh) 一种数据处理方法、装置、电子设备及计算机可读介质
US20170286181A1 (en) Deployment and execution of sensing and computational tasks in a network of computing devices
US20150371190A1 (en) Systems and methods for provisioning a fleet of industrial assets as a computing-cloud
CN111178823A (zh) 居住相关事务的取消方法和装置
US11729273B2 (en) Adjusting idle timeout for a session
US9590908B2 (en) Distributed data processing device and distributed data processing method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant