CN111158912A - 云雾协同计算环境下一种基于深度学习的任务卸载决策方法 - Google Patents

云雾协同计算环境下一种基于深度学习的任务卸载决策方法 Download PDF

Info

Publication number
CN111158912A
CN111158912A CN201911392475.9A CN201911392475A CN111158912A CN 111158912 A CN111158912 A CN 111158912A CN 201911392475 A CN201911392475 A CN 201911392475A CN 111158912 A CN111158912 A CN 111158912A
Authority
CN
China
Prior art keywords
decision
task
consumption
deep neural
neural networks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911392475.9A
Other languages
English (en)
Other versions
CN111158912B (zh
Inventor
张子儒
管畅
吴华明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201911392475.9A priority Critical patent/CN111158912B/zh
Publication of CN111158912A publication Critical patent/CN111158912A/zh
Application granted granted Critical
Publication of CN111158912B publication Critical patent/CN111158912B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/509Offload
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开一种基于深度学习的任务卸载决策方法,包括步骤:随机生成任务矩阵W分别输入到S个并行的深度神经网络,输出决策X并计算消耗Q(W,X),得到深度神经网络训练前给出的最优决策X1及对应的消耗Q1;从数据集中选取数据训练S个深度神经网络,将任务矩阵W输入训练后的S个深度神经网络,得到深度神经网络训练前给出的最优决策X2及对应的消耗Q2;计算
Figure DDA0002345354630000011
直到R达到阈值,对新任务卸载决策,将对应任务矩阵W输入并行S个深度神经网络,从中选出消耗最小的决策,即目标决策。本发明基于深度神经网络的决策模型训练完成后,仅需简单的线性运算便可给出决策,运算量大大减小。

Description

云雾协同计算环境下一种基于深度学习的任务卸载决策方法
技术领域
本发明涉及任务卸载决策技术领域,特别是涉及云雾协同计算环境下一种基于深度学习的任务卸载决策方法。
背景技术
随着科技不断进步及人们生活质量提高,各种移动设备或物联网设备普及为人们生活带来了极大的便利。由于移动设备运算能力有限,对运算密集型程序如人脸识别、增强现实等,其处理速度往往很难满足用户日常需求。
为防止移动设备因运行大量运算所带来的高延迟与高电量消耗,设备在日常运行中往往需要依赖于云端服务器协助进行计算,将本地任务卸载到云端服务器运行,从而减少等待时间并延长电池使用寿命。云端服务器的运算能力虽然强大,但由于移动端用户的不断增多,用户对云端服务器运算能力的需求与日俱增,云端运算所带来的延迟也随之逐渐增长。对一些延迟敏感性任务,云计算已渐渐变得不符合程序的实用要求。而随着无线通信技术的不断发展,用户将本地任务卸载到所在地周边的数据基站、数据中心等边缘云设备进行运算的“雾计算”技术已成熟。与中央云相比,边缘云的计算能力与存储能力相对较低,但由于其离移动设备更近,其通信开销会变得很小,可以很大程度上减少网络操作等带来的时延,从而满足未来网络的超高带宽、超低延时以及业务和用户感知的要求,有极大的实际使用价值。
雾计算与云计算各有优缺点,云计算的计算能力更充足,但延迟较高;雾计算的延迟极低,但其自身运算能力与存储能力有限。考虑二者的优缺点,只有将两者很好的结合起来,才能使云雾协同计算发挥出其最大的效力。综合考虑所有用户的延迟总时间及能量总消耗,如何动态的决定每个任务的卸载方式,使得所有用户的等待总时间最短及能量总消耗最小,是影响云雾协同计算效力的关键。但总决策的可能性与用户、任务数量呈指数型增长关系,实际情况中往往又涉及到大规模的卸载决策问题,使得遍历或线性规划等传统优化方法需要进行大量运算才能做出决策,很难满足实际需求。
也就是说,现有的云雾协同卸载决策算法需要经过大量的运算才能给出,虽然理论可实现,但等待时间过长、能量消耗过大等因素使得其不符合实际使用需求。同时,现有的方法对于实际中给定的任何用户数及任务情况都需要重复同样的计算过程,已有的决策过程无法指导新任务的卸载决策,故模型无法随着使用不断跟新完善。
发明内容
本发明的目的是针对现有技术中存在的技术缺陷,而提供一种云雾协同计算环境下基于深度学习的任务卸载决策方法,通过构建并行的多个深度神经网络,采用多神经网络的深度学习的方法,以达到在短时间内作出合理决策的目的。
为实现本发明的目的所采用的技术方案是:
一种基于深度学习的任务卸载决策方法,
S1.随机生成任务矩阵W分别输入到S个并行的深度神经网络,通过MSE将输出转换为决策X并计算消耗Q(W,X),得到深度神经网络训练前给出的最优决策X1以及对应的消耗Q1
S2.从数据集中随机选取一系列数据训练S个深度神经网络,更新网络权重,将任务矩阵W输入S个训练后的深度神经网络,得到深度神经网络训练后给出的最优决策以及对应的消耗Q2
S3.计算
Figure BDA0002345354610000021
判断R是否达到阈值,若是结束,否则重复S1-S3;
S4.对于新的任务卸载决策,将所对应的任务矩阵W输入并行的S个深度神经网络中,从中选出消耗最小的决策,即为目标决策。
其中,所述数据集通过以下步骤多次重复进行而形成:
随机生成任务矩阵W,将任务矩阵W分别输入到S个初始化后的深度神经网络中,得到S个决策X并计算每个决策所对应的消耗Q(W,X),将消耗最小的决策与任务矩阵W联合存入数据集中;多次重复本步骤,直到生成的数据数量达到设定好的数据集大小。
其中,所述数据集是通过将任务矩阵W与对应的第一最优决策X1联合生成新的数据替代数据集中最先生成的数据,以实现对数据集更新的。
其中,所述消耗Q(W,X)的计算方法如下:
Figure BDA0002345354610000031
Figure BDA0002345354610000032
式中,a表示能量消耗与时间消耗之间的权重,T(n)表示用户n最终时间消耗,E(n)表示用户n的总能量消耗,E(n,m)表示用户n的m个任务的总能量消耗,Tl(n)表示用户n的本地运算任务消耗总时间,Te(n)表示用户n的边缘云运算任务消耗总时间,Tc(n)表示用户n的中央云运算任务消耗总时间,N为用户数量,每个用户n有M个任务。
其中,
Figure BDA0002345354610000033
Figure BDA0002345354610000034
Figure BDA0002345354610000035
Figure BDA0002345354610000036
表示本地执行,
Figure BDA0002345354610000037
表示卸载到中央云,
Figure BDA0002345354610000038
表示卸载到边缘云,
Figure BDA0002345354610000041
表示两个取值为0或1的变量。
其中,
Figure BDA0002345354610000042
Figure BDA0002345354610000043
El(n,m)、Ee(n,m)、Ec(n,m)分别表示该任务在本地、边缘云、中央云计算所需消耗的能量。
其中,每个神经网络输入层含N*M个节点,输入为任务矩阵各元素的值,输出层含2*N*M个节点,输出为预决策X*,输入层与输出层间含若干隐藏层;
将预决策X*转化为由0,1构成的决策X,采用均方差公式MSE,其中决策X是使
Figure BDA0002345354610000044
式中,xi表示神经网络各节点的输出值,
Figure BDA0002345354610000045
表示神经网络各节点的输出值对应的预决策的输出值。
本发明能够在非常短的时间内给出合适的卸载方案,从而使云雾协同计算发挥其最大效力,解决了传统卸载决策方案往往需进行大量运算,当任务数增多时,作出决策所需要的高延迟,使得云雾协同计算很难发挥其优势的问题。
附图说明
图1是本发明的种基于深度学习的任务卸载决策方法的流程图;
图2是本发明的深度神经网络的结构示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明通过构建多个并行的深度神经网络,利用多个神经网络并行生成训练所需数据集,在运用数据集训练神经网络的同时用新生成的数据不断更新数据集,从而生成满足实际需求的决策生成神经网络,从而为用户在较短的时间内给出精度较高的任务卸载方案。
如图1所示,本发明基于深度学习的任务卸载决策方法,包括以下步骤:
一、建立模型。
记给定情况下的用户数量为N,每个用户有M个任务(M取各用户任务数的最大值,任务数量不足M的可用大小为0的任务补齐),用任务矩阵为W表示各任务的大小,其中W的第n行、第m列元素W(n,m)表示第n个用户的第m个任务的大小,矩阵W已知。记El(n,m)、Ee(n,m)、Ec(n,m)分别表示该任务在本地、边缘云、中央云计算所需消耗的能量,Tl(n,m)、Te(n,m)、Tc(n,m)分别表示该任务在本地、边缘云、中央云运算所需要的时间,Tt(n,m)表示该任务数据上传所需时间,这六个变量均可看作由任务数据大小W(n,m)所唯一确定的物理量,故可看作已知量。由于通常情况下任务运行结果与任务数据大小相比过小,故任务运算结果传回本地时间忽略不计,仅考虑任务数据上传时间。
对任务W(n,m),运用两个取值为0或1的变量
Figure BDA0002345354610000051
表示任务的卸载方式。其中,当
Figure BDA0002345354610000052
时表示任务在本地进行运算。当
Figure BDA0002345354610000053
时表示任务选择卸载到云端进行运算,此时,
Figure BDA0002345354610000054
时表示卸载到边缘云,
Figure BDA0002345354610000055
表示卸载到中央云。
则其卸载方式可表示如下:
Figure BDA0002345354610000056
——本地执行,
Figure BDA0002345354610000057
——卸载到中央云,
Figure BDA0002345354610000058
——卸载到边缘云,
则最终能量消耗由下式表示:
Figure BDA0002345354610000059
Figure BDA0002345354610000061
由此,用户n的总能量消耗E(n)可表示为:
Figure BDA0002345354610000062
对用户n,其本地运算任务消耗总时间可表示为:
Figure BDA0002345354610000063
边缘云运算任务消耗总时间可表示为:
Figure BDA0002345354610000064
中央云运算任务消耗总时间可表示为:
Figure BDA0002345354610000065
由于在等待云端数据处理的同时,用户可在本地运行未卸载的任务,且中央云与边缘云可分别进行数据处理,所以用户等待总时间为这三部分时间的最长值,即用户n最终时间消耗T(n)可由下式表示:
T(n)=max(Tl(n),Te(n),Tc(n)) (6)
用a表示能量消耗与时间消耗之间的权重,则对给定的卸载决策X,总消耗Q可表示为:
Figure BDA0002345354610000066
二、初始化训练所需要的数据集。
2.1随机初始化S个并行的深度神经网络,其中每个神经网络输入层含N*M个节点,输入为任务矩阵各元素的值,输出层含2*N*M个节点,输出为预决策X*。输入层与输出层间含若干隐藏层。
设定数据集大小,规定需要保存的数据的数量。
2.2由神经网络计算方式可知,神经网络各节点输出为小数,不符合模型建立中用0和1代表决策的方法。为将预决策X*转化为与之最接近的由0,1构成的决策X,可采用均方差公式MSE将预决策X*进行转化。其中X是使
Figure BDA0002345354610000071
最小的一系列有0,1构成的整数。
不难证明当
Figure BDA0002345354610000072
时,
Figure BDA0002345354610000073
故xi取值为1,当
Figure BDA0002345354610000074
时,
Figure BDA0002345354610000075
故xi取值为0。则通过将神经网络各节点的输出值与
Figure BDA0002345354610000076
进行比较,可转化为符合要求的决策X。
2.3随机生成任务矩阵W,将W分别输入到S个深度神经网络中,由过程2.2可得到S个决策方案X1,X2,X3,…,XS.根据公式Q(W,X),分别计算出这S个决策方案所对应的消耗,将消耗最小的决策方案与任务矩阵联合,存入数据集中。
2.4重复过程2.3,直到生成的数据数量已达到设定好的数据集大小。
三、根据数据集对神经网络进行训练,同时不断用新的数据更新数据集。
3.1继续随机生成任务矩阵W,重复过程2.3,得到深度神经网络给出的最优决策X1,及对应的消耗Q1,并将该任务矩阵与决策联合生成新的数据,用该数据替代数据集中最先生成的数据,从而实现对数据集更新。
3.2从数据集中随机挑选出一系列数据,对这S个深度神经网络训练,更新神经网络权重。
3.3对任务矩阵W再次执行过程2.3,得到训练后的神经网络所给出的最优决策X2及对应的消耗Q2
3.4定义
Figure BDA0002345354610000081
理想状态下,当深度神经网络趋于收敛时,对相同任务矩阵,再次对神经网络进行训练后所给出的方案不再变化,即Q1=Q2,R=1,故把R作为衡量神经网络是否收敛的指标,重复过程3.1-3.3,直到R趋于1,此时可认为神经网络已训练完毕。
对于新任务卸载决策情况,将该情况对应的任务矩阵输入并行的S个深度神经网络中,从中挑选出消耗最小的决策,即可得到理想的决策方案。
需要说明的是,深度学习是机器学习的一种,通过深度神经网络学习标准样本数据的内在规律和表示层次,使得计算机能够像人一样具有分析能力,对新产生的情况,计算机能够根据已有的训练结果给出合理决策的方法和理论。
传统深度学习案例往往仅需一个深度神经网络,并且需要大量已知数据作为训练基础,但由于用户数与任务数的组合多种多样,往往很难得到满足各种实际需求的数据,故理论上可行但很难应用于生产实践上,而本发明引入了多个并行的深度神经网络,通过不断循环更新数据与训练过程,很好解决了缺乏数据的问题,使得该模型能更加便捷的应用于不同的实际情况。
现有的决策模型大多需要进行大量运算,虽然理论上可行,但当用户和任务数增多时运算量往往超过实际可接受范围。而本发明的运算量增长速度较现有方案更平缓,在运算能力等条件相同的情况下可以处理更复杂的决策问题。
现有技术每一次做出新决策时,都需要重复已有运算过程,已有决策数据无法指导新决策的生成。本发明基于深度神经网络的决策模型在训练完成后,仅需进行简单的线性运算便可给出决策,运算量大大减小,故可将训练好的神经网络直接复制到各云端服务器甚至移动端直接投入使用,可移植性高。
总之,本发明提出的多神经网络的深度学习是一种通过并行构建多个深度神经网络,在没有数据的情况下先随机生成深度学习所需数据集,在训练深度神经网络的同时更新数据集,使得数据集不断趋向于标准的数据,同时使深度神经网络不断趋于收敛,从而将非监督学习过程转化为监督学习的过程。
本发明中的深度神经网络采用现有的深度学习工具箱所提供的深度神经网络构建功能、交叉熵计算功能、Adam优化算法等功能,综合考虑用户能量消耗及时间消耗,能快速给出能满足实际需求的卸载决策方案,模型训练完毕后可极大程度上减小给出决策所需要的运算量,且精确度较高。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (7)

1.基于深度学习的任务卸载决策方法,其特征在于,包括以下步骤:
S1.随机生成任务矩阵W分别输入到S个并行的深度神经网络,通过MSE将输出转换为决策X并计算消耗Q(W,X),得到深度神经网络训练前给出的最优决策X1以及对应的消耗Q1
S2.从数据集中随机选取一系列数据训练S个深度神经网络,更新网络权重,将任务矩阵W输入S个训练后的深度神经网络,得到深度神经网络训练后给出的最优决策X2以及对应的消耗Q2
S3.计算
Figure FDA0002345354600000011
判断R是否达到阈值,若是结束,否则重复S1-S3;
S4.对于新的任务卸载决策,将所对应的任务矩阵W输入并行的S个深度神经网络中,从中选出消耗最小的决策,即为目标决策。
2.根据权利要求1所述基于深度学习的任务卸载决策方法,其特征在于,所述数据集通过以下步骤多次重复进行而形成:
随机生成任务矩阵W,将任务矩阵W分别输入到S个初始化后的深度神经网络中,得到S个决策X并计算每个决策所对应的消耗Q(W,X),将消耗最小的决策与任务矩阵W联合存入数据集中;多次重复本步骤,直到生成的数据数量达到设定好的数据集大小。
3.根据权利要求1所述基于深度学习的任务卸载决策方法,其特征在于,所述数据集是通过将任务矩阵W与对应的第一最优决策X1联合生成新的数据替代数据集中最先生成的数据,以实现对数据集更新的。
4.根据权利要求1所述基于深度学习的任务卸载决策方法,其特征在于,所述消耗Q(W,X)的计算方法如下:
Figure FDA0002345354600000012
T(n)=maxTl(n),Te(n),Tc(n)),
Figure FDA0002345354600000013
式中,a表示能量消耗与时间消耗之间的权重,T(n)表示用户n最终时间消耗,E(n)表示用户n的总能量消耗,E(n,m)表示用户n的m个任务的总能量消耗,Tl(n)表示用户n的本地运算任务消耗总时间,Te(n)表示用户n的边缘云运算任务消耗总时间,Tc(n)表示用户n的中央云运算任务消耗总时间,N为用户数量,每个用户n有M个任务。
5.根据权利要求4所述基于深度学习的任务卸载决策方法,其特征在于,其中,
Figure FDA0002345354600000021
Figure FDA0002345354600000022
Figure FDA0002345354600000023
Figure FDA0002345354600000024
表示本地执行,
Figure FDA0002345354600000025
表示卸载到中央云,
Figure FDA0002345354600000026
表示卸载到边缘云,
Figure FDA0002345354600000027
表示两个取值为0或1的变量。
6.根据权利要求5所述基于深度学习的任务卸载决策方法,其特征在于,其中,
Figure FDA0002345354600000028
Figure FDA0002345354600000029
El(n,m)、Ee(n,m)、Ec(n,m)分别表示该任务在本地、边缘云、中央云计算所需消耗的能量。
7.根据权利要求1所述基于深度学习的任务卸载决策方法,其特征在于,其中,每个神经网络输入层含N*M个节点,输入为任务矩阵各元素的值,输出层含2*N*M个节点,输出为预决策X*,输入层与输出层间含若干隐藏层;
将预决策X*转化为由0,1构成的决策X,采用均方差公式MSE,其中决策X是使
Figure FDA0002345354600000031
式中,xi表示神经网络各节点的输出值,
Figure FDA0002345354600000032
表示神经网络各节点的输出值对应的预决策的输出值。
CN201911392475.9A 2019-12-30 2019-12-30 云雾协同计算环境下一种基于深度学习的任务卸载决策方法 Active CN111158912B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911392475.9A CN111158912B (zh) 2019-12-30 2019-12-30 云雾协同计算环境下一种基于深度学习的任务卸载决策方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911392475.9A CN111158912B (zh) 2019-12-30 2019-12-30 云雾协同计算环境下一种基于深度学习的任务卸载决策方法

Publications (2)

Publication Number Publication Date
CN111158912A true CN111158912A (zh) 2020-05-15
CN111158912B CN111158912B (zh) 2023-04-21

Family

ID=70558973

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911392475.9A Active CN111158912B (zh) 2019-12-30 2019-12-30 云雾协同计算环境下一种基于深度学习的任务卸载决策方法

Country Status (1)

Country Link
CN (1) CN111158912B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782301A (zh) * 2020-07-08 2020-10-16 北京邮电大学 卸载动作集合获取方法及装置
CN111831415A (zh) * 2020-07-10 2020-10-27 广东石油化工学院 一种多队列多集群的任务调度方法及系统
CN112134916A (zh) * 2020-07-21 2020-12-25 南京邮电大学 一种基于深度强化学习的云边协同计算迁移方法
CN112433843A (zh) * 2020-10-21 2021-03-02 北京邮电大学 一种基于深度强化学习的计算分流优化方法
WO2022006830A1 (zh) * 2020-07-10 2022-01-13 广东石油化工学院 一种多队列多集群的任务调度方法及系统
CN115551105A (zh) * 2022-09-15 2022-12-30 公诚管理咨询有限公司 基于5g网络边缘计算的任务调度方法、装置和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268298A1 (en) * 2017-03-15 2018-09-20 Salesforce.Com, Inc. Deep Neural Network-Based Decision Network
CN109257429A (zh) * 2018-09-25 2019-01-22 南京大学 一种基于深度强化学习的计算卸载调度方法
CN110362952A (zh) * 2019-07-24 2019-10-22 张�成 一种快速计算任务分流方法
CN110535936A (zh) * 2019-08-27 2019-12-03 南京邮电大学 一种基于深度学习的能量高效雾计算迁移方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268298A1 (en) * 2017-03-15 2018-09-20 Salesforce.Com, Inc. Deep Neural Network-Based Decision Network
CN109257429A (zh) * 2018-09-25 2019-01-22 南京大学 一种基于深度强化学习的计算卸载调度方法
CN110362952A (zh) * 2019-07-24 2019-10-22 张�成 一种快速计算任务分流方法
CN110535936A (zh) * 2019-08-27 2019-12-03 南京邮电大学 一种基于深度学习的能量高效雾计算迁移方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782301A (zh) * 2020-07-08 2020-10-16 北京邮电大学 卸载动作集合获取方法及装置
CN111831415A (zh) * 2020-07-10 2020-10-27 广东石油化工学院 一种多队列多集群的任务调度方法及系统
WO2022006830A1 (zh) * 2020-07-10 2022-01-13 广东石油化工学院 一种多队列多集群的任务调度方法及系统
CN111831415B (zh) * 2020-07-10 2024-01-26 广东石油化工学院 一种多队列多集群的任务调度方法及系统
US11954526B2 (en) 2020-07-10 2024-04-09 Guangdong University Of Petrochemical Technology Multi-queue multi-cluster task scheduling method and system
CN112134916A (zh) * 2020-07-21 2020-12-25 南京邮电大学 一种基于深度强化学习的云边协同计算迁移方法
CN112134916B (zh) * 2020-07-21 2021-06-11 南京邮电大学 一种基于深度强化学习的云边协同计算迁移方法
CN112433843A (zh) * 2020-10-21 2021-03-02 北京邮电大学 一种基于深度强化学习的计算分流优化方法
CN112433843B (zh) * 2020-10-21 2022-07-08 北京邮电大学 一种基于深度强化学习的计算分流优化方法
CN115551105A (zh) * 2022-09-15 2022-12-30 公诚管理咨询有限公司 基于5g网络边缘计算的任务调度方法、装置和存储介质
CN115551105B (zh) * 2022-09-15 2023-08-25 公诚管理咨询有限公司 基于5g网络边缘计算的任务调度方法、装置和存储介质

Also Published As

Publication number Publication date
CN111158912B (zh) 2023-04-21

Similar Documents

Publication Publication Date Title
CN111158912A (zh) 云雾协同计算环境下一种基于深度学习的任务卸载决策方法
CN110909865B (zh) 边缘计算中基于分层张量分解的联邦学习方法
CN109948029B (zh) 基于神经网络自适应的深度哈希图像搜索方法
CN106897254B (zh) 一种网络表示学习方法
CN109462520B (zh) 基于lstm模型的网络流量资源态势预测方法
CN107256422A (zh) 数据量化方法及装置
CN109635204A (zh) 基于协同过滤和长短记忆网络的在线推荐系统
CN114912705A (zh) 一种联邦学习中异质模型融合的优化方法
CN113191484A (zh) 基于深度强化学习的联邦学习客户端智能选取方法及系统
Lu et al. Automating deep neural network model selection for edge inference
Zou et al. Mobile device training strategies in federated learning: An evolutionary game approach
CN110531996B (zh) 一种多微云环境下基于粒子群优化的计算任务卸载方法
CN112100514B (zh) 一种基于全局注意力机制表征学习的好友推荐方法
CN111355633A (zh) 一种基于pso-delm算法的比赛场馆内手机上网流量预测方法
CN116523079A (zh) 一种基于强化学习联邦学习优化方法及系统
CN113610227A (zh) 一种高效的深度卷积神经网络剪枝方法
CN115359298A (zh) 基于稀疏神经网络的联邦元学习图像分类方法
CN112766467A (zh) 基于卷积神经网络模型的图像识别方法
CN116050540A (zh) 一种基于联合双维度用户调度的自适应联邦边缘学习方法
CN111832817A (zh) 基于mcp罚函数的小世界回声状态网络时间序列预测方法
CN112036651A (zh) 基于量子免疫优化bp神经网络算法的电价预测方法
Li et al. CBFL: a communication-efficient federated learning framework from data redundancy perspective
CN116244484B (zh) 一种面向不平衡数据的联邦跨模态检索方法及系统
CN116976461A (zh) 联邦学习方法、装置、设备及介质
CN114118381B (zh) 基于自适应聚合稀疏通信的学习方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant