CN109343942B - 基于边缘计算网络的任务调度方法 - Google Patents

基于边缘计算网络的任务调度方法 Download PDF

Info

Publication number
CN109343942B
CN109343942B CN201811020720.9A CN201811020720A CN109343942B CN 109343942 B CN109343942 B CN 109343942B CN 201811020720 A CN201811020720 A CN 201811020720A CN 109343942 B CN109343942 B CN 109343942B
Authority
CN
China
Prior art keywords
node
computing
task
information
scheduling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811020720.9A
Other languages
English (en)
Other versions
CN109343942A (zh
Inventor
崔琪楣
谷宇
江慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN201811020720.9A priority Critical patent/CN109343942B/zh
Publication of CN109343942A publication Critical patent/CN109343942A/zh
Application granted granted Critical
Publication of CN109343942B publication Critical patent/CN109343942B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例提供一种基于边缘计算网络的任务调度方法,包括:在上一次调度结束后,将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数;将优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,对每一边缘计算节点的调度决策进行评价,每一边缘计算节点分布式执行任务调度,提高了边缘计算的效率。

Description

基于边缘计算网络的任务调度方法
技术领域
本发明实施例涉及边缘计算技术领域,尤其涉及一种基于边缘计算网络的任务调度方法。
背景技术
物联网技术和第5代无线通信技术的发展促进了一系列新型的应用,例如自动驾驶,虚拟现实等。同时这些新型应用也给无线网络带来诸多挑战,特别是一些计算敏感、时延敏感的业务。
现有技术中,将这些计算相关的业务通过无线网络以及核心网络,再经互联网上传至远端服务器或者云计算平台进行处理。一旦互联网或者核心网回程链路堵塞,又或者该业务需要极高的时延保证时,现有技术中的方法无法满足该类业务的服务需求。同时,这种集中式处理方式也给运营商和服务商带来了极大经营成本。服务器和云计算平台的运营和维护随着用户数或者网络规模的增加而呈现指数式增长的趋势。一种有效的解决手段是将计算功能下移至无线接入网,形成分布式边缘计算网络来承载部分低时延应用的计算任务。这将有效得缓解无线网络的回程链路的负载压力,做到本地数据本地处理,由于边缘计算节点距离用户终端更近,可以快速响应用户终端计算请求。
然而,边缘计算网络也面临着一些亟待解决的挑战,边缘计算节点的计算能力往往比较薄弱,业务请求也具有时空不均匀特性,单一边缘计算节点无法处理过量的计算任务。边缘计算节点需要将过量的计算任务转移到云计算平台或者其他边缘计算节点来处理。但是,边缘计算节点无法精准预测其他边缘计算节点的负载情况和负载卸载决策。一旦边缘计算节点将计算任务转移到负载严重的边缘计算节点上,不但不能加快计算任务的处理进度,反而会延长计算任务的处理进度,严重影响用户的体验感。
发明内容
本发明实施例的目的是提供一种克服上述问题或者至少部分地解决上述问题的基于边缘计算网络的任务调度方法。
为了解决上述技术问题,一方面,本发明实施例提供一种基于边缘计算网络的任务调度方法,包括:
在上一次调度结束后,获取每一边缘计算节点上报的节点信息,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息;
将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
将所述优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据所述优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
另一方面,本发明实施例提供一种基于边缘计算网络的任务调度方法,包括:
在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将获取到的所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
获取所述中心控制器广播的所述优劣参数,并根据所述优劣参数优化预设的第二神经网络模型;
将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,并将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
再一方面,本发明实施例提供一种电子设备,包括:
存储器和处理器,所述处理器和所述存储器通过总线完成相互间的通信;所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行上述的方法。
又一方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法。
本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
附图说明
图1为本发明实施例提供的基于边缘计算网络的任务调度方法示意图;
图2为本发明实施例提供的基于边缘计算网络的无线通信网络系统的示意图;
图3为本发明另一实施例提供的基于边缘计算网络的任务调度方法示意图;
图4为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为了使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的基于边缘计算网络的任务调度方法示意图,如图1所示,本发明实施例提供一种基于边缘计算网络的任务调度方法,其执行主体为中心控制器,该方法包括:
步骤S101、在上一次调度结束后,获取每一边缘计算节点上报的节点信息,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息;
步骤S102、将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
步骤S103、将所述优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据所述优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
具体来说,图2为本发明实施例提供的基于边缘计算网络的无线通信网络系统的示意图,如图2所示,基于边缘计算网络的无线通信网络系统由中心控制器、边缘计算网络和移动用户终端构成。其中,边缘计算网络由若干个边缘计算节点组成,每一边缘计算节点可以为基站等分布在网络边缘具有计算能力的设备。移动用户终端通过无线链路与边缘计算节点连接。
首先,每一边缘计算节点获取其上一次调度开始前的节点状态信息,并将该节点状态信息输入至自己内部的第二神经网络模型,输出当前的节点状态信息,上一次调度的决策信息,以及上一次调度的回报信息。
例如,针对第n个边缘计算节点,1≤n≤N,N表示中心控制器控制下的边缘计算节点的个数,第n个边缘计算节点获取其上一次调度开始前的节点状态信息,第n个边缘计算节点的上一次调度开始前的节点状态信息,用向量的形式记作sn(t)。然后,将sn(t)输入至参数为θn(t)的预设的第二神经网络模型,该第二神经网络模型记作π(an|snn(t)),其中,θn(t)为该神经网络的权重参数。然后,输出当前的节点状态信息,当前的节点状态信息用向量的形式记作sn(t+1),并输出上一次调度的决策信息,上一次调度的决策信息用向量的形式记作an(t),以及输出上一次调度的回报信息,上一次调度的回报信息用向量的形式记作R(t)。边缘计算节点计算出调度的决策信息只需要根据自己的节点状态信息,不需要获取全局的所有边缘计算节点的节点状态信息,提高了调度效率。
第n个边缘计算节点在获取到上一次调度的决策信息an(t)后,将每一计算任务分别发送到上一次调度的决策信息an(t)指示的执行主体进行计算。
如果第n个边缘计算节点的上一次调度的决策信息an(t)指示某个计算任务的执行主体为该边缘计算节点自己,即,该计算任务由该边缘计算节点自己处理,则该计算任务直接被发送到中央处理器CPU进行处理,由CPU按照决策信息an(t)指示计算资源为该计算任务分配相应的计算资源。
如果第n个边缘计算节点的上一次调度的决策信息an(t)指示某个计算任务的执行主体为其他边缘计算节,即,该计算任务由其他边缘计算节点处理,则该计算任务将按照预设的任务转移格式被发送到相应的边缘计算节点进行处理,预设的任务转移格式如下:
源IP地址 计算任务状态 任务的最大容忍时延 目的IP地址
如果某个计算任务由其他边缘计算节点处理,其他边缘计算节点处理完之后,会将计算结果按照预设的结果反馈格式反馈给原来的边缘计算节点,预设的结果反馈格式如下:
目的IP地址 是否成功 计算结果 计算时间 源IP地址
最后,原来的边缘计算节点收集其他边缘计算节点反馈回来的计算结果,通过无线链路传递给用户终端。至此,上一次调度结束。
在上一次调度结束后,获取每一边缘计算节点上报的节点信息,节点信息用向量的形式记作{sn(t),an(t),Rn(t),sn(t+1)},n∈N,该节点信息包括上一次调度开始前的节点状态信息,上一次调度开始前的节点状态信息用向量的形式记作s(t),s(t)={sn(t),n∈N},还包括当前的节点状态信息,当前的节点状态信息用向量的形式记作s(t+1),s(t+1)={sn(t+1),n∈N},还包括上一次调度的决策信息,上一次调度的决策信息用向量的形式记作a(t),a(t)={an(t),n∈N},还包括上一次调度的回报信息,上一次调度的回报信息用向量的形式记作R(t),R(t)={Rn(t),n∈N},其中,sn(t)为第n个边缘计算节点的上一次调度开始前的节点状态信息,an(t)为第n个边缘计算节点的上一次调度的决策信息,Rn(t)为第n个边缘计算节点的上一次调度的回报信息,sn(t+1)为第n个边缘计算节点的当前的节点状态信息,N表示中心控制器控制下的边缘计算节点的个数。
然后,中心控制器将获取到的所有边缘计算节点上报的所有的节点信息,输入至预设的第一神经网络模型,第一神经网络模型为一个参数为w的神经网络,该第一神经网络模型记作v(s|w),其中,s为输入值,w为权重参数,输出优劣参数δ,优劣参数δ用于指示每一边缘计算节点上一次调度的决策的优劣程度。通过神经网络v(s|w)获取优劣参数δ的过程可以用如下公式表示:
δ←R(t)+γv(s(t+1)|w)-v(s(t)|w)
Figure BDA0001787246100000061
It+1←γIt
t←t+1
其中,γ为回报值得打折因子,α为更新步长,It为常数,It=1。
最后,中心控制器将优劣参数δ广播至每一边缘计算节点。
每一边缘计算节点分别根据优劣参数δ优化第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
例如,针对第n个边缘计算节点,第n个边缘计算节点根据优劣参数δ优化其自己的第二神经网络模型π(an|snn(t)),获取优化后的神经网络的权重参数θn(t+1),并将当前的节点状态信息sn(t+1)输入至优化后的第二神经网络模型π(an|snn(t+1)),输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
通过优劣参数δ优化第二神经网络模型π(an|snn(t))的过程可以用如下公式表示:
Figure BDA0001787246100000062
It+1←γIt
t←t+1
其中,γ为回报值得打折因子,βn为更新步长,It为常数,It=1,当t≥T,重新初始化参数θn,T为预设常数值。
本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在上述实施例的基础上,进一步地,所述节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延。
具体来说,每一边缘计算节点向中心控制器上报的自己的节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延。
例如,针对第n个边缘计算节点,其向中心控制器上报的其上一次调度开始前的节点状态信息用向量表示为sn(t),sn(t)={cn,l,dn,l,Dn,l},l∈Mn,其中,Mn为第n个边缘计算节点下的计算任务数,cn,l为处理第n个边缘计算节点下第l个计算任务已经花费的时间,dn,l为上次调度前处理完第n个边缘计算节点下第l个计算任务还需要的计算资源,Dn,l为第n个边缘计算节点下第l个计算任务的最大容忍时延。
cn,l的初始化值为0,一开始用户终端产生该计算任务请求,会记录这个任务产生时的GPS时钟时间,当该任务数据量通过无线链路传递到第n个边缘计算节点时,对照第n个边缘计算节点的GPS时钟时间,更新cn,l的值。此后,每过一个时隙单位,cn,l的值加一。当cn,l的值大于Dn,l时,则该计算任务失败。当该计算任务从第n个边缘计算节点转移到其他边缘计算节点时,会记录这个任务产生时的GPS时钟时间,该任务数据量通过基站的X2接口或者核心网传递到其他边缘计算节点后,对照目的边缘计算节点的GPS时钟时间,更新cn,l的值。
每经过一个调度周期,需要更新dn,l的值,更新的公式为:dn,l(t+1)=dn,l(t)-βn,l,dn,l为上次调度前处理完第n个边缘计算节点下第l个计算任务还需要的计算资源,βn,l为上次调度决策中分配给第n个边缘计算节点下第l个计算任务的计算资源,dn,l(t+1)上次调度结束后处理完第n个边缘计算节点下第l个计算任务还需要的计算资源。
本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在以上各实施例的基础上,进一步地,所述决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。
具体来说,每一边缘计算节点通过自己的第二神经网络模型获取到的决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。这样在执行调度任务时,就能明确某一计算任务应该由哪个执行主体进行处理,并能明确分配给某一计算任务的计算资源的数量。
例如,针对第n个边缘计算节点,第n个边缘计算节点获取到其上一次调度开始前的节点状态信息sn(t)之后,将sn(t)输入至参数为θn(t)的预设的第二神经网络模型π(an|snn(t)),输出上一次调度的决策信息an(t)。
其中,an(t)={xnn},xn为转发决策矩阵。
Figure BDA0001787246100000081
Mn为第n个边缘计算节点下的计算任务数。xkl为二元决策变量,xkl=1表示第n个边缘计算节点下的第l个计算任务转移到第k个边缘计算节点处理,xkl=0表示第n个边缘计算节点下的第l个计算任务不转移到第k个边缘计算节点处理。因此,xn的列向量为除了一个元素为1,其他元素全为0的列向量。βn为计算资源决策向量,
Figure BDA0001787246100000082
βn,l表示第n个边缘计算节点下的第l个计算任务得到的计算资源(例如,CPU频率)。
当第n个边缘计算节点下的第l个计算任务由该边缘计算节点自己处理时,计算资源分配必须满足
Figure BDA0001787246100000091
Cn是第n个边缘计算节点的总的计算资源。
本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在以上各实施例的基础上,进一步地,所述回报信息包括每一计算任务的回报值;
所述回报值的计算公式如下:
Figure BDA0001787246100000092
其中,
Figure BDA0001787246100000093
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
具体来说,每一边缘计算节点通过自己的第二神经网络模型获取到的回报信息包括每一计算任务的回报值.
每一计算任务的回报值反应了在一次调度过程中,该计算任务被处理的速度的快慢,处理速度越快该回报值就越大,反之越小。
例如,针对第n个边缘计算节点,上一次调度的回报信息为Rn(t),Rn(t)用公式表示如下:
Figure BDA0001787246100000094
其中,Rn(t)为第n个边缘计算节点上一次调度的回报信息,
Figure BDA0001787246100000095
为第n个边缘计算节点上一次调度的第l个计算任务的回报值,Mn为第n个边缘计算节点下的计算任务数。
上一次调度的第l个计算任务的回报值
Figure BDA0001787246100000096
的计算公式如下:
Figure BDA0001787246100000101
其中,
Figure BDA0001787246100000102
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
在上一次调度结束后,第l个计算任务的计时器状态cn,l大于Dn,l时,计算任务失败,则该计算任务的回报值为
Figure BDA0001787246100000103
当dn,l=0时,计算任务计算完成,则该计算任务的回报值为
Figure BDA0001787246100000104
当计算任务l的计时器状态cn,l小于Dn,l时,则Dn,l-cn,l为最大剩余执行时间。dn,l为剩余计算量。则该计算任务的回报值为
Figure BDA0001787246100000105
其实为计算速率的倒数。
本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
图3为本发明另一实施例提供的基于边缘计算网络的任务调度方法示意图,如图3所示,本发明实施例提供一基于边缘计算网络的任务调度方法,其执行主体为边缘计算节点,该方法包括:
步骤S301、在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将获取到的所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
步骤S302、获取所述中心控制器广播的所述优劣参数,并根据所述优劣参数优化预设的第二神经网络模型;
步骤S303、将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,并将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
具体来说,在上一次调度结束后,每一边缘计算节点分别向中心控制器上报自己的节点信息,中心控制器获取每一边缘计算节点上报的节点信息,节点信息用向量的形式记作{sn(t),an(t),Rn(t),sn(t+1)},n∈N,该节点信息包括上一次调度开始前的节点状态信息,上一次调度开始前的节点状态信息用向量的形式记作s(t),s(t)={sn(t),n∈N},还包括当前的节点状态信息,当前的节点状态信息用向量的形式记作s(t+1),s(t+1)={sn(t+1),n∈N},还包括上一次调度的决策信息,上一次调度的决策信息用向量的形式记作a(t),a(t)={an(t),n∈N},还包括上一次调度的回报信息,上一次调度的回报信息用向量的形式记作R(t),R(t)={Rn(t),n∈N},其中,sn(t)为第n个边缘计算节点的上一次调度开始前的节点状态信息,an(t)为第n个边缘计算节点的上一次调度的决策信息,Rn(t)为第n个边缘计算节点的上一次调度的回报信息,sn(t+1)为第n个边缘计算节点的当前的节点状态信息,N表示中心控制器控制下的边缘计算节点的个数。
中心控制器将获取到的所有边缘计算节点上报的所有的节点信息,输入至预设的第一神经网络模型,第一神经网络模型为一个参数为w的神经网络,该第一神经网络模型记作v(s|w),其中,s为输入值,w为权重参数,输出优劣参数δ,优劣参数δ用于指示每一边缘计算节点上一次调度的决策的优劣程度。通过神经网络v(s|w)获取优劣参数δ的过程可以用如下公式表示:
δ←R(t)+γv(s(t+1)|w)-v(s(t)|w)
Figure BDA0001787246100000111
It+1←γIt
t←t+1
其中,γ为回报值得打折因子,α为更新步长,It为常数,It=1。
中心控制器将优劣参数δ广播至每一边缘计算节点。
然后,每一边缘计算节点分别根据优劣参数δ优化第二神经网络模型。
例如,针对第n个边缘计算节点,第n个边缘计算节点根据优劣参数δ优化其自己的第二神经网络模型π(an|snn(t)),获取优化后的神经网络的权重参数θn(t+1),并将当前的节点状态信息sn(t+1)输入至优化后的第二神经网络模型π(an|snn(t+1)),输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
通过优劣参数δ优化第二神经网络模型π(an|snn(t))的过程可以用如下公式表示:
Figure BDA0001787246100000121
It+1←γIt
t←t+1
其中,γ为回报值得打折因子,βn为更新步长,It为常数,It=1,当t≥T,重新初始化参数θn,T为预设常数值。
最后,每一边缘计算节点分别将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
例如,针对第n个边缘计算节点,将当前的节点状态信息s(t+1)输入至优化后的第二神经网络模型π(an|snn(t+1)),输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在上述实施例的基础上,进一步地,在所述在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数之前,还包括:
将获取到的上一次调度开始前的节点状态信息,输入至所述预设的第二神经网络模型,输出上一次调度的决策信息、上一次调度的回报信息和当前的节点状态信息;
将每一计算任务分别发送到上一次调度的决策信息指示的执行主体进行计算;
接收每一执行主体反馈的计算结果信息。
具体来说,首先,每一边缘计算节点获取其上一次调度开始前的节点状态信息,并将该节点状态信息输入至自己内部的第二神经网络模型,输出当前的节点状态信息,上一次调度的决策信息,以及上一次调度的回报信息。
例如,针对第n个边缘计算节点,1≤n≤N,N表示中心控制器控制下的边缘计算节点的个数,第n个边缘计算节点获取其上一次调度开始前的节点状态信息,第n个边缘计算节点的上一次调度开始前的节点状态信息,用向量的形式记作sn(t)。然后,将sn(t)输入至参数为θn(t)的预设的第二神经网络模型,该第二神经网络模型记作π(an|snn(t)),其中,θn(t)为该神经网络的权重参数。然后,输出当前的节点状态信息,当前的节点状态信息用向量的形式记作sn(t+1),并输出上一次调度的决策信息,上一次调度的决策信息用向量的形式记作an(t),以及输出上一次调度的回报信息,上一次调度的回报信息用向量的形式记作R(t)。边缘计算节点计算出调度的决策信息只需要根据自己的节点状态信息,不需要获取全局的所有边缘计算节点的节点状态信息,提高了调度效率。
第n个边缘计算节点在获取到上一次调度的决策信息an(t)后,将每一计算任务分别发送到上一次调度的决策信息an(t)指示的执行主体进行计算。
如果第n个边缘计算节点的上一次调度的决策信息an(t)指示某个计算任务的执行主体为该边缘计算节点自己,即,该计算任务由该边缘计算节点自己处理,则该计算任务直接被发送到中央处理器CPU进行处理,由CPU按照决策信息an(t)指示计算资源为该计算任务分配相应的计算资源。
如果第n个边缘计算节点的上一次调度的决策信息an(t)指示某个计算任务的执行主体为其他边缘计算节,即,该计算任务由其他边缘计算节点处理,则该计算任务将按照预设的任务转移格式被发送到相应的边缘计算节点进行处理,预设的任务转移格式如下:
源IP地址 计算任务状态 任务的最大容忍时延 目的IP地址
如果某个计算任务由其他边缘计算节点处理,其他边缘计算节点处理完之后,会将计算结果按照预设的结果反馈格式反馈给原来的边缘计算节点,预设的结果反馈格式如下:
目的IP地址 是否成功 计算结果 计算时间 源IP地址
最后,原来的边缘计算节点收集其他边缘计算节点反馈回来的计算结果,通过无线链路传递给用户终端。至此,上一次调度结束。
本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在上述实施例的基础上,进一步地,所述节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延;
所述决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。
具体来说,每一边缘计算节点向中心控制器上报的自己的节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延。
例如,针对第n个边缘计算节点,其向中心控制器上报的其上一次调度开始前的节点状态信息用向量表示为sn(t),sn(t)={cn,l,dn,l,Dn,l},l∈Mn,其中,Mn为第n个边缘计算节点下的计算任务数,cn,l为处理第n个边缘计算节点下第l个计算任务已经花费的时间,dn,l为上次调度前处理完第n个边缘计算节点下第l个计算任务还需要的计算资源,Dn,l为第n个边缘计算节点下第l个计算任务的最大容忍时延。
cn,l的初始化值为0,一开始用户终端产生该计算任务请求,会记录这个任务产生时的GPS时钟时间,当该任务数据量通过无线链路传递到第n个边缘计算节点时,对照第n个边缘计算节点的GPS时钟时间,更新cn,l的值。此后,每过一个时隙单位,cn,l的值加一。当cn,l的值大于Dn,l时,则该计算任务失败。当该计算任务从第n个边缘计算节点转移到其他边缘计算节点时,会记录这个任务产生时的GPS时钟时间,该任务数据量通过基站的X2接口或者核心网传递到其他边缘计算节点后,对照目的边缘计算节点的GPS时钟时间,更新cn,l的值。
每经过一个调度周期,需要更新dn,l的值,更新的公式为:dn,l(t+1)=dn,l(t)-βn,l,dn,l为上次调度前处理完第n个边缘计算节点下第l个计算任务还需要的计算资源,βn,l为上次调度决策中分配给第n个边缘计算节点下第l个计算任务的计算资源,dn,l(t+1)上次调度结束后处理完第n个边缘计算节点下第l个计算任务还需要的计算资源。
每一边缘计算节点通过自己的第二神经网络模型获取到的决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。这样在执行调度任务时,就能明确某一计算任务应该由哪个执行主体进行处理,并能明确分配给某一计算任务的计算资源的数量。
例如,针对第n个边缘计算节点,第n个边缘计算节点获取到其上一次调度开始前的节点状态信息sn(t)之后,将sn(t)输入至参数为θn(t)的预设的第二神经网络模型π(an|snn(t)),输出上一次调度的决策信息an(t)。
其中,an(t)={xnn},xn为转发决策矩阵。
Figure BDA0001787246100000151
Mn为第n个边缘计算节点下的计算任务数。xkl为二元决策变量,xkl=1表示第n个边缘计算节点下的第l个计算任务转移到第k个边缘计算节点处理,xkl=0表示第n个边缘计算节点下的第l个计算任务不转移到第k个边缘计算节点处理。因此,xn的列向量为除了一个元素为1,其他元素全为0的列向量。βn为计算资源决策向量,
Figure BDA0001787246100000164
βn,l表示第n个边缘计算节点下的第l个计算任务得到的计算资源(例如,CPU频率)。
当第n个边缘计算节点下的第l个计算任务由该边缘计算节点自己处理时,计算资源分配必须满足
Figure BDA0001787246100000161
Cn是第n个边缘计算节点的总的计算资源。
本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
在以上各实施例的基础上,进一步地,所述回报信息包括每一计算任务的回报值;
所述回报值的计算公式如下:
Figure BDA0001787246100000162
其中,
Figure BDA0001787246100000163
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
具体来说,每一边缘计算节点通过自己的第二神经网络模型获取到的回报信息包括每一计算任务的回报值.
每一计算任务的回报值反应了在一次调度过程中,该计算任务被处理的速度的快慢,处理速度越快该回报值就越大,反之越小。
例如,针对第n个边缘计算节点,上一次调度的回报信息为Rn(t),Rn(t)用公式表示如下:
Figure BDA0001787246100000171
其中,Rn(t)为第n个边缘计算节点上一次调度的回报信息,
Figure BDA0001787246100000172
为第n个边缘计算节点上一次调度的第l个计算任务的回报值,Mn为第n个边缘计算节点下的计算任务数。
上一次调度的第l个计算任务的回报值
Figure BDA0001787246100000173
的计算公式如下:
Figure BDA0001787246100000174
其中,
Figure BDA0001787246100000175
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
在上一次调度结束后,第l个计算任务的计时器状态cn,l大于Dn,l时,计算任务失败,则该计算任务的回报值为
Figure BDA0001787246100000176
当dn,l=0时,计算任务计算完成,则该计算任务的回报值为
Figure BDA0001787246100000177
当计算任务l的计时器状态cn,l小于Dn,l时,则Dn,l-cn,l为最大剩余执行时间。dn,l为剩余计算量。则该计算任务的回报值为
Figure BDA0001787246100000178
其实为计算速率的倒数。
本发明实施例提供的基于边缘计算网络的任务调度方法,中心控制器获取每一边缘计算节点的节点信息,并利用第一神经网络模型获取优劣参数,并将优劣参数广播给每一边缘计算节点,使边缘计算节点根据优劣参数优化自己内部的第二神经网络模型,通过优化后的第二神经网络模型获得的下一次调度的决策信息更加精准,实现全局统一的任务调度,提高了边缘计算的效率。
图4为本发明实施例提供的电子设备的结构示意图,如图4所示,所述设备包括:处理器401、存储器402和总线403;
其中,处理器401和存储器402通过所述总线403完成相互间的通信;
处理器401用于调用存储器402中的程序指令,以执行上述各方法实施例所提供的方法,例如包括:在上一次调度结束后,获取每一边缘计算节点上报的节点信息,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息;将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;将所述优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据所述优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
或者包括:在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将获取到的所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;获取所述中心控制器广播的所述优劣参数,并根据所述优劣参数优化预设的第二神经网络模型;将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,并将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
本发明实施例提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法,例如包括:在上一次调度结束后,获取每一边缘计算节点上报的节点信息,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息;将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;将所述优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据所述优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
或者包括:在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将获取到的所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;获取所述中心控制器广播的所述优劣参数,并根据所述优劣参数优化预设的第二神经网络模型;将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,并将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
本发明实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行上述各方法实施例所提供的方法,例如包括:在上一次调度结束后,获取每一边缘计算节点上报的节点信息,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息;将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;将所述优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据所述优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
或者包括:在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将获取到的所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;获取所述中心控制器广播的所述优劣参数,并根据所述优劣参数优化预设的第二神经网络模型;将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,并将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的装置及设备等实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种基于边缘计算网络的任务调度方法,其特征在于,包括:
在上一次调度结束后,获取每一边缘计算节点上报的节点信息,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息;
将获取到的所有的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
将所述优劣参数广播至每一边缘计算节点,以供每一边缘计算节点分别根据所述优劣参数优化预设的第二神经网络模型,并将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算;
所述回报信息包括每一计算任务的回报值;
所述回报值的计算公式如下:
Figure FDA0002564585150000011
其中,
Figure FDA0002564585150000012
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
2.根据权利要求1所述的方法,其特征在于,所述节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延。
3.根据权利要求1所述的方法,其特征在于,所述决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。
4.一种基于边缘计算网络的任务调度方法,其特征在于,包括:
在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将获取到的所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数,所述节点信息包括上一次调度开始前的节点状态信息、当前的节点状态信息、上一次调度的决策信息和上一次调度的回报信息,所述优劣参数用于指示每一边缘计算节点上一次调度的决策的优劣程度;
获取所述中心控制器广播的所述优劣参数,并根据所述优劣参数优化预设的第二神经网络模型;
将当前的节点状态信息输入至优化后的第二神经网络模型,输出下一次调度的决策信息,并将每一计算任务分别发送到下一次调度的决策信息指示的执行主体进行计算;
所述回报信息包括每一计算任务的回报值;
所述回报值的计算公式如下:
Figure FDA0002564585150000021
其中,
Figure FDA0002564585150000022
为第n个边缘计算节点下的第l个计算任务的回报值,Dn,l为第n个边缘计算节点下的第l个计算任务的最大容忍时延,cn,l为处理第n个边缘计算节点下的第l个计算任务已经花费的时间,dn,l为处理完第n个边缘计算节点下的第l个计算任务还需要的计算资源。
5.根据权利要求4所述的方法,其特征在于,在所述在上一次调度结束后,向中心控制器上报节点信息,以供所述中心控制器将所有边缘计算节点上报的节点信息,输入至预设的第一神经网络模型,输出优劣参数之前,还包括:
将获取到的上一次调度开始前的节点状态信息,输入至所述预设的第二神经网络模型,输出上一次调度的决策信息、上一次调度的回报信息和当前的节点状态信息;
将每一计算任务分别发送到上一次调度的决策信息指示的执行主体进行计算;
接收每一执行主体反馈的计算结果信息。
6.根据权利要求4或5所述的方法,其特征在于,所述节点状态信息包括处理每一计算任务已经花费的时间、处理完每一计算任务还需要的计算资源和每一计算任务的最大容忍时延;
所述决策信息包括执行每一计算任务的执行主体,以及分别分配给每一计算计算任务的计算资源。
7.一种电子设备,其特征在于,包括:
存储器和处理器,所述处理器和所述存储器通过总线完成相互间的通信;所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至6任一所述的方法。
8.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一所述的方法。
CN201811020720.9A 2018-09-03 2018-09-03 基于边缘计算网络的任务调度方法 Active CN109343942B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811020720.9A CN109343942B (zh) 2018-09-03 2018-09-03 基于边缘计算网络的任务调度方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811020720.9A CN109343942B (zh) 2018-09-03 2018-09-03 基于边缘计算网络的任务调度方法

Publications (2)

Publication Number Publication Date
CN109343942A CN109343942A (zh) 2019-02-15
CN109343942B true CN109343942B (zh) 2020-11-03

Family

ID=65293979

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811020720.9A Active CN109343942B (zh) 2018-09-03 2018-09-03 基于边缘计算网络的任务调度方法

Country Status (1)

Country Link
CN (1) CN109343942B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109905470A (zh) * 2019-02-18 2019-06-18 南京邮电大学 一种基于边缘网关系统的开销优化任务调度方法
US11556756B2 (en) * 2019-04-25 2023-01-17 Alibaba Group Holding Limited Computation graph mapping in heterogeneous computer system
CN113424154A (zh) * 2019-05-23 2021-09-21 西门子股份公司 边缘侧模型处理的方法、边缘计算设备和计算机可读介质
CN112039685B (zh) * 2019-06-04 2022-11-15 杭州海康威视系统技术有限公司 网络管理方法、装置、计算网络和物联网
CN110377533B (zh) * 2019-07-10 2021-03-19 北京邮电大学 一种用于云计算及边缘计算的缓存置换方法及装置
CN110740170A (zh) * 2019-09-25 2020-01-31 咪咕视讯科技有限公司 计算单元的确定方法、网络设备和计算机可读存储介质
CN110728548B (zh) * 2019-10-23 2020-12-01 重庆市赤甲旅游文化创意开发集团有限责任公司 一种vr旅游产品评价系统
CN111126594B (zh) * 2019-11-25 2023-08-04 北京邮电大学 基于边缘计算的神经网络模型动态切分方法及装置
CN111176820B (zh) * 2019-12-31 2021-06-25 中科院计算技术研究所大数据研究院 一种基于深度神经网络的边缘计算任务的分配方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710286A (zh) * 2009-12-23 2010-05-19 天津大学 面向dag数据驱动型应用的并行编程模型系统和实现方法
CN102073546A (zh) * 2010-12-13 2011-05-25 北京航空航天大学 一种云计算环境中分布式计算模式下的任务动态调度方法
CN103077088A (zh) * 2013-01-17 2013-05-01 浙江大学 集群渲染环境中基于pkdt树的动态反馈负载均衡方法
CN103136399A (zh) * 2011-12-01 2013-06-05 北京七十二炫信息技术有限公司 面向室内场景的辐射度并行绘制系统和方法
CN104168332A (zh) * 2014-09-01 2014-11-26 广东电网公司信息中心 高性能计算中负载均衡与节点状态监控方法
CN107241767A (zh) * 2017-06-14 2017-10-10 广东工业大学 一种移动协同计算的方法及装置
CN107766889A (zh) * 2017-10-26 2018-03-06 济南浪潮高新科技投资发展有限公司 一种云端边缘计算融合的深度学习计算系统和方法
CN108205442A (zh) * 2016-12-16 2018-06-26 埃森哲环球解决方案有限公司 边缘计算平台

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844567B2 (en) * 2007-08-13 2010-11-30 Yahoo! Inc. System and method for selecting a training sample from a sample test based on data sample proximity
US8327304B2 (en) * 2010-11-18 2012-12-04 International Business Machines Corporation Partitioning for hardware-accelerated functional verification
US20150169345A1 (en) * 2013-12-18 2015-06-18 International Business Machines Corporation Software-defined networking (sdn) for management of traffic between virtual processors

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710286A (zh) * 2009-12-23 2010-05-19 天津大学 面向dag数据驱动型应用的并行编程模型系统和实现方法
CN102073546A (zh) * 2010-12-13 2011-05-25 北京航空航天大学 一种云计算环境中分布式计算模式下的任务动态调度方法
CN103136399A (zh) * 2011-12-01 2013-06-05 北京七十二炫信息技术有限公司 面向室内场景的辐射度并行绘制系统和方法
CN103077088A (zh) * 2013-01-17 2013-05-01 浙江大学 集群渲染环境中基于pkdt树的动态反馈负载均衡方法
CN104168332A (zh) * 2014-09-01 2014-11-26 广东电网公司信息中心 高性能计算中负载均衡与节点状态监控方法
CN108205442A (zh) * 2016-12-16 2018-06-26 埃森哲环球解决方案有限公司 边缘计算平台
CN107241767A (zh) * 2017-06-14 2017-10-10 广东工业大学 一种移动协同计算的方法及装置
CN107766889A (zh) * 2017-10-26 2018-03-06 济南浪潮高新科技投资发展有限公司 一种云端边缘计算融合的深度学习计算系统和方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向边缘计算的嵌入式FPGA卷积神经网络构建方法;卢冶,等;;《计算机研究与发展》;20180331;第55卷(第3期);551-562 *

Also Published As

Publication number Publication date
CN109343942A (zh) 2019-02-15

Similar Documents

Publication Publication Date Title
CN109343942B (zh) 基于边缘计算网络的任务调度方法
US11762697B2 (en) Method and apparatus for scheduling resource for deep learning framework
US11216310B2 (en) Capacity expansion method and apparatus
Li et al. Resource price-aware offloading for edge-cloud collaboration: A two-timescale online control approach
CN104901989B (zh) 一种现场服务提供系统及方法
US20210042578A1 (en) Feature engineering orchestration method and apparatus
CN113268341A (zh) 电网边缘计算任务的分配方法、装置、设备和存储介质
CN111078404B (zh) 一种计算资源确定方法、装置、电子设备及介质
CN103988179A (zh) 用于在地理分布数据中心中降低延迟和改善弹性的优化机制
WO2023093375A1 (zh) 一种计算资源获取方法、装置、电子设备和存储介质
Huang et al. Distributed resource allocation for network slicing of bandwidth and computational resource
Chen et al. Latency minimization for mobile edge computing networks
CN109428926B (zh) 一种调度任务节点的方法和装置
CN116541106A (zh) 计算任务卸载方法、计算设备及存储介质
CN114691372A (zh) 一种多媒体端边云系统的群体智能控制方法
CN114924851A (zh) 训练任务的调度方法、装置、电子设备和存储介质
CN105335313A (zh) 一种基础数据的传输方法及装置
CN109298933B (zh) 基于边缘计算网络的无线通信网络设备及系统
CN110727511B (zh) 应用程序的控制方法、网络侧设备和计算机可读存储介质
CN112437449A (zh) 联合资源分配方法及区域编排器
CN104735134B (zh) 一种用于提供计算服务的方法和装置
Costero et al. Leveraging knowledge-as-a-service (KaaS) for QoS-aware resource management in multi-user video transcoding
US20190108060A1 (en) Mobile resource scheduler
CN113591999A (zh) 一种端边云联邦学习模型训练系统及方法
CN114612212A (zh) 一种基于风险控制的业务处理方法、装置和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant